Arquivo anual: 2011

>Disaster Needed for U.S. to Act on Climate Change, Harvard’s Stavins Says (Bloomberg)

>
By Kim Chipman and Brian K. Sullivan – Apr 29, 2011
http://www.bloomberg.com/news/2011-04-29/disaster-needed-for-u-s-to-act-on-climate-change-stavins-says.html

The U.S. probably won’t take significant steps to curb climate change until an environmental disaster sways public view and prompts political action, Robert Stavins of Harvard University said.

“It’s unlikely that the U.S. is going to take serious action on climate change until there are observable, dramatic events, almost catastrophic in nature, that drive public opinion and drive the political process in that direction,” Stavins, director of Harvard’s Environmental Economics Program in Cambridge, Massachusetts, said today in an interview in Bloomberg’s Boston office.

President Barack Obama failed to get legislation through Congress that would have established a cap-and-trade system of pollution allowances to control greenhouse-gas emissions blamed for global warming. Instead, the administration is pushing regulations for carbon pollution through the Environmental Protection Agency, a far inferior approach, according to Stavins.

The agency’s rules aimed at curbing emissions from industrial polluters such as power plants aren’t “sensible,” he said. They don’t do much to reduce greenhouse gases and carry an “excessively high cost,” according to Stavins.

Stavins, an economist, is a member of the United Nations’ Intergovernmental Panel on Climate Change, which said in 2007 that scientists are more than 90 percent certain that humans are causing global warming.

Decline in Polls

U.S. concern about climate change has declined in recent years, according to polls. Americans who agree the Earth is warming because of man-made activity dropped to 34 percent in October, from 50 percent in July 2006, according to a survey by the Pew Research Center for the People & the Press.

Almost four dozen lawmakers who have questioned global warming were elected to Congress in November’s midterm elections.

Stalemate on the issue in the U.S. has hindered the Obama administration’s efforts to take the lead in UN talks for a new global treaty to fight climate change. The U.S., the world’s second largest greenhouse-gas emitter behind China, is the only industrialized country not part of the Kyoto Protocol, which limits emissions by developed nations until 2012.

“There’s a legit reason for the public to be skeptical about climate change because they don’t see it,” Stavins said.

Grabbing the public’s attention would require a dramatic development, such as a “well-observed melting of parts of polar ice caps that result in some amount of sea-level rise,” Stavins said.

Outside of climate policy, the U.S. has the strongest environmental regulations in the world thanks to laws written in the 1970s, Stavins said. Those measures were adopted in response to high-profile events such as the Cuyahoga River catching fire in Cleveland, Ohio, he said.

Climate change “is one that is going to require some kind of enlightened leadership from the top down,” according to Stavins.

>Should “Citizen Scientists” play with Climate & Ecosystem Models? (The Eggs)

>

By Ivo Grigorov
http://www.the-eggs.org/articles.php?id=141

A series of recent events has fuelled a hot debate over the transparency and credibility of climate research. While the debate between sceptics and believers may continue, the circumstances have provided good context for “citizen science” to spill over into climate research.


The concept is not a new one and already applied in astronomy & planetary science, archaeology and biodiversity studies. The idea is that volunteers participate in tasks where human perception and common sense are needed, without the time-consuming scientific training. So could the concept work in something as technical, multi-disciplinary and complex as Global Climate Change modelling?


Earlier this year, the Clear Climate Code Project (CCC; http://clearclimatecode.org) set up by the staff of the Cambridge-based Ravenbrook Limited software engineering consultancy (http://www.ravenbrook.com), published their own version of NASA’s Goddard Institute for Space Studies GISTEMP Model.


CCC is a volunteer-based project founded on the premise that “The results of some climate-related software are used as the basis for important public policy decisions. If the software is not clearly correct, decision-making will be obscured by debates about it”. The goals of the small group of software engineers are to: 1) produce clear climate science software; 2) encourage the production of clear climate science software; 3) increase public confidence in climate science results, without judgement or arbitration of climate science.


Why start with GISTEMP1?


GISTEMP is just one of the instrumentation record analyses openly available2  but one has to start somewhere. The CCC team took the original version and re-wrote it in a single software, Python, in order to restructure the code for clarity for competent users who are not necessarily scientists, while attempting to independently reproduce Hansen’s originally published results.


The results were not only reproduced3  (Figure 1), but the Python version of the model is significantly lighter (40% of original code), clearer (with half the codelines carrying explanation and comments) and significantly faster. Moreover, Hansen’s collaborator at NASA GISS, Dr Reto Ruedy, has openly praised the re-coding of the model by saying “I hope to switch to your version of that program …Ideally, we would like to replace our whole code”4.


What next? 
Clear Climate Code are currently working on an integrated graphic visualisation tools for GISTEMP. Beyond that, CCC are looking to repeat the demonstration with other global models focussed on Arctic Sea Ice Extent and past temperature reconstructions.


The goals of the computer engineers are also very complimentary to those of Marine Ecosystem Evolution in a Changing Environment (MEECE)5 Project. Funded by Framework Program 7, the MEECE project, coordinated by Plymouth Marine Laboratory (UK), aims to 1) improve the knowledge base on marine ecosystems and their response to climate and anthropogenic pressure, as well as 2) develop innovative predictive management tools based on the current generation of marine ecoystem models.


A central step in that ambition is making the current generation of marine ecosystem models more transparent and usable by any competent user outside the original development team. Making source code accessible and readily usable is a skill in itself and a task that often does not make the list of priorities when there are pressing scientific questions to be answered.


The CCC demonstration shows that the benefits can be beyond simple transparency and public confidence in research. Accessible and readily usable model code can invite constructive contribution from outside the research domain, and poses the question whether the GISTEMP code clarification can spill over into other of Global Climate Change modelling fields, if “citizen scientist” are given the minimum of technical documentation and access to the source code?


Clear Climate Code (http://clearclimatecode.org) is set up by the staff of the Cambridge-based Ravenbrook Limited software engineering consultancy (http://www.ravenbrook.com). Contact: Nick Barnes, nb@ravenbrook.com.


MEECE Integrated Project (http://www.meece.eu) is a research project funded by Framework Programme 7. Through its Model Library (http://www.meece.eu/library.html) the projects aims to bring transparency to marine ecosystem models by providing access to the minimum technical information necessary for a competent non-expert to apply the models.


Figure 1. Global annual temperature anomaly. Without an offset, the CCC-version (red) replicates GISS original output (black) so well that it is barely visible. For full GISTEMP-CCC comparison, visit http://clearclimatecode.org/category/status/




References


1. Hansen, J.E., and S. Lebedeff, 1987: Global trends of measured surface air temperature. J. Geophys. Res., 92, 13345-13372
2. Code source: http://data.giss.nasa.gov/gistemp/sources/
3. http://ccc-gistemp.googlecode.com/files/ccc-gistemp-0.2.0-comparison-2010-01-11.html 
4. Reto Ruedy-CCC communication on Google Groups – http://groups.google.com/group/ccc-gistemp-discuss/msg/bdba6c032080f05b
5. MEECE Integrated Project is funded by Framework Program 7, www.meece.eu


Ivo Grigorov (ivo_grigorov@hotmail.com) is a European Programs Officer at CNRS, France (IUEM, Place Copernic, Technopole, Plouzane, France 29200) and DTU-Aqua, Denmark.

>Hearts Beat as One in a Daring Ritual (N.Y. Times)

>

Dimitris Xygalatas
SPAIN Fire-walkers carry family members or friends as they cross the coals.


By PAM BELLUCK

They do it every June 23, at midnight, celebrating the summer solstice by crossing a 23-foot-long carpet of oak embers that have burned for hours before sizzling down to a glowing red. The event is full of pageantry and symbolism: processions with religious statues, trumpets sounding before each fire-walk, and three virgins (or, these days, three women who are unmarried).
So when scientists wanted to measure the physiological effects of fire-walking to see if there were biological underpinnings of communal rituals, they encountered a few hurdles.
“We talked about measuring blood pressurecortisol levels, pain tolerance,” said Ivana Konvalinka, a bioengineering doctoral student at Aarhus University in Denmark who helped lead the team. “We even talked about oxytocin,” a hormone involved in pleasure.
But with such readings difficult to obtain, they settled on heart rate, strapping monitors on fire-walkers and spectators to see whether the rates of spectators increased like those of people actually walking barefoot on hot coals.
Still, even persuading people to wear heart monitors was no easy feat. Before arriving, the research team of anthropologists, psychologists and religion experts had received permission from San Pedro Manrique’s mayor, but later he demurred, Ms. Konvalinka said.
“He said to us, if we are able to recruit people, then fine,” she said, “but he didn’t approve, and he told people not to participate.”
Some people dropped out or refused, including the people the fire-walkers carry on their backs, a group researchers considered monitoring. But others approached researchers at the last minute. Ultimately, they monitored 12 fire-walkers, 9 spectators related to fire-walkers, and 17 unrelated spectators who were just visiting. The mayor also required monitors to be concealed so they were invisible to the crowd, which filled the town’s special fire-walking amphitheater, built for 3,000 spectators, five times the number of villagers.
The researchers wanted to investigate what draws people to communal rituals like fire-walking.
“There’s the idea about rituals that they enhance group cohesion, but what creates this group?” Ms. Konvalinka said. “We figured there was some kind of autonomic nervous system measure that could capture the emotional effects of the ritual.”
The results surprised them. The heart rates of relatives and friends of the fire-walkers followed an almost identical pattern to the fire-walkers’ rates, spiking and dropping almost in synchrony. The heart rates of visiting spectators did not. The relatives’ rates synchronized throughout the event, which lasted 30 minutes, with 28 fire-walkers each making five-second walks. So relatives or friends’ heart rates matched a fire-walker’s rate before, during and after his walk. Even people related to other fire-walkers showed similar patterns.
Experts not involved in the study said despite the small number of participants, the results were intriguing. They build on research showing heart rates of fans of team sports surge when their teams score, and on studies demonstrating that people rocking in rocking chairs or tapping their fingers eventually synchronize their movements.
“It’s one study, but it’s a great study,” said Michael Richardson, an assistant professor ofpsychology at the University of Cincinnati. “It shows that being connected to someone is not just in the mind. There are these fundamental physiological behavioral moments that are occurring continuously with other people that we’re not aware of. There is a solid grounding of laboratory research which is completely consistent with their findings. It’s always hard to do these studies in the real world. This is the first study that has kind of done it on a big scale in a natural situation.”
Richard Sosis, an associate professor of anthropology at the University of Connecticut, said the study was “quite exciting,” contradicting the “assumption that rituals produce cohesion and solidarity only if there are shared movements, shared vocalizations or shared rhythms,” activities like singing, dancing or marching together. With fire-walking, spectators simply watched, without sharing activity or rhythm with the walkers. And different types of spectators had different results, with villagers in sync but out-of-towners not.
Dr. Sosis, co-editor of a new journal, Religion, Brain and Behavior, said there could be parallels with more common rituals, like weddings, baptisms or bar mitzvahs. He cited an experiment in which Paul Zak, a neuroeconomist, attended a wedding and measured oxytocin levels of the bride, groom and some relatives and friends, finding that several experienced surges in oxytocin as if bonding with the couple.
David Willey, a physicist at University of Pittsburgh at Johnstown, fire-walks himself and has reasoned that it does not normally burn because the embers do not transmit enough heat in their brief contact with feet. Heart-rate synchronization makes sense, he said, based on his fire-walking parties, where “there is very much a group feeling.”
Researchers might find similar heart-rate synchronization in other high-arousal rituals like “bending rebar with your throat, walking on broken glass, bungee jumping,” he said. “They can come to my backyard if they want.”
Ms. Konvalinka said the team plans another fire-walking study, this time in Mauritius. But they may also return to San Pedro Manrique. “At the end,” she said, “I think the mayor was O.K. with us being there.

>On Birth Certificates, Climate Risk and an Inconvenient Mind (N.Y. Times, Dot Earth Blog)

>
April 28, 2011, 9:23 AM
By ANDREW C. REVKIN

As Donald Trump tries to milk a last bit of publicity out of the failed “birther” challenge to President Obama, it’s worth reading a fresh take by an Australian psychologist on the deep roots of denial in people with fundamentalist passions of whatever stripe. Here’s an excerpt:

[I]deology trumps facts.
And it doesn’t matter what the ideology is, whether socialism, any brand of fundamentalist religion, or free-market extremism. The psychological literature shows quite consistently that a threat to one’s worldview is more than likely met by a dismissal of facts, however strong the evidence. Indeed, the stronger the evidence, the greater the threat — and hence the greater the denial.
In its own bizarre way, then, the rising noise level of climate denial provides further evidence that global warming resulting from human CO2 emissions is indeed a fact, however inconvenient it may be. Read the rest.
The piece, published today on the Australian news blog The Drum, is byStephan Lewandowsky of the School of Psychology at the University of Western Australia.
Of course, just being aware that ideology can deeply skew how people filter facts and respond to risks begs the question of how to make progress in the face of the wide societal divisions this pattern creates.
It’s easy to forget that there’s been plenty of climate denial to go around. It took a decade for those seeking a rising price on carbon dioxide emissions as a means to transform American and global energy norms to realize that a price sufficient to drive the change was a political impossibility.
As a new paper in the Proceedings of the National Academy of Sciences found, even when greenhouse-gas emissions caps were put in place, trade with unregulated countries simply shifted the brunt of the emissions elsewhere.
When he was Britain’s prime minister, Tony Blair put it this way in 2005: “The blunt truth about the politics of climate change is that no country will want to sacrifice its economy in order to meet this challenge.”
My choice, of course, is to attack the two-pronged energy challenge the world faces with a sustained energy quest, nudged and nurtured from the top but mainly fostered from the ground up.
And I’m aware I still suffer from a hint of “scientism,” even “rational optimism,” in expecting that this argument can catch on, but so be it.
10:11 a.m. | Updated For much more on the behavioral factors that shape the human struggle over climate policy, I encourage you to explore “Living in Denial: Climate Change, Emotions, and Everyday Life,” a new book by Kari Marie Norgaard, a sociologist who has just moved from Whitman College to the University of Oregon.
Robert Brulle of Drexel University brought the book to my attention several months ago, and I invited him to do a Dot Earth “Book Report,” to kick off a discussion of Norgaard’s insights, which emerge from years of research she conducted on climate attitudes in a rural community in western Norway. (I’d first heard of of Norgaard’s research while reporting my 2007 article on behavior and climate risk.)
(I also encourage you to read the review in the journal Nature Climate Changeby Mike Hulme, a professor of climate at the University of East Anglia and the author of “Why We Disagree about Climate Change.”)
Here’s Brulle’s reaction to Norgaard’s book:
As a sociologist and longtime student of human responses to environmental problems, I’ve seen reams of analysis come and go on why we get some things right and some very wrong. A new book by Kari Norgaard has done the best job yet of cutting to the core on our seeming inability to grasp and meaningfully respond to human-driven climate change.
As the science of climate change has become stronger and more dire, media coverage, public opinion, and government actions regarding this issue has declined. At the same time, climate denial positions have become increasingly accepted, despite a lack of scientific evidence. Even among the public that accepts the science of global climate change, the dire circumstances we now face in this regard are consistently downplayed, and the logical implications that follow from the scientific analysis of the necessity to enact swift and aggressive measures to combat climate change are not followed through either intellectually or politically.
Instead, at best, a series of half measures have been proposed, which though they may be comforting, are essentially symbolic measures that allow the status quo to continue unchanged, and thus will not adequately address the issue of global climate change. Thus attempts to address climate change have encountered significant cultural, political, and economic barriers that have not been overcome. While there have been several attempts to explain the lack of meaningful action regarding climate change, these models have not developed into an integrated and empirically supported approach. Additionally, many of these models are based in an individualistic perspective, and thus engage in a form of psychological reductionism. Finally, none of these models are able to coherently explain the inter-related phenomena regarding climate change that is occurring at the individual, small group, institutional, and societal levels.
To move beyond the limitations of these approaches, Dr. Norgaard develops a sociological model that views the response to global climate change as a social process. One of the fundamental insights of sociology is that individuals are part of a larger structure of cultural and social interactions. Thus through the socialization processes, we construct certain ways of life and understandings of the world that guide our everyday interactions. Individuals become the carriers of the orientations and practices that constitute our social order. A disjuncture between our taken-for-granted way of living, such as the new behaviors necessitated by climate change, are experienced at the individual level as identity threats, at the institutional level as challenges to social cohesion, and at the societal level as legitimation threats. When this occurs, there are powerful processes that work at the psychological, institutional, and overall society level to maintain the current orientations and ensure social stability. Taken together, these social processes create cultural and social stability. They also create, from the view of climate change, a form of social inertia that inhibits rapid social change.
From this sociological perspective, Dr. Norgaard takes on the apparent paradox of climate change and public awareness; as our knowledge about the nature and seriousness of climate change has increased, our political and social engagement with the issue has declined. Why? Dr. Norgaard’s answer (crudely put) is that our personality structures and social norms are so thoroughly enmeshed with a growth economy based on fossil fuels that any consideration of the need to change our way of life to deal with climate change evokes powerful emotions of anxiety and desires to avoid this issue. This avoidance behavior is socially reinforced by collective group norms, as well as the messages we receive from the mass media and the political elite. She develops this thesis through the use of an impressive array of sociological theory, including the sociology of the emotions, cultural sociology, and political economy. Additionally, she utilizes specific theoretical approaches regarding the social denial of catastrophic risk. Here she skillfully repurposes the literature on nuclear war and collective denial to the issue of climate change. This is a unique and insightful use of this literature. Thus her theoretical contribution is substantial and original. She then illustrates this process through a thick qualitative analysis based on participant observation in Norway. In her analysis of conversations, she illustrates how collective denial of climate change takes place through conversations. This provided powerful ground truth evidence of her theoretical framework.
This is an extremely important intellectual contribution. Research on climate change and culture has been primarily focused on individual attitudinal change. This work brings a sociological perspective to our understanding of individual and collective responses to climate change information, and opens up a new research area. It also has important practical implications. Most climate change communication efforts are based on conveying information to individuals. The assumption is that individuals will take in this information and then act rationally in their own interests. Dr. Norgaard’s analysis course charts a different approach. As she demonstrates, it is not a lack of information that inhibits action on climate change. Rather, the knowledge brings about unpleasant emotions and anxiety. Individuals and communities seek to restore a sense of equilibrium and stability, and thus engage in a form of denial which, although the basic facts of climate change are acknowledged, the logical conclusions and actions that follow from the information are minimized and not acted upon. This perspective calls for a much different approach to climate change communications, and defines a new agenda for this field.

[Note: people interested in this line of argument should follow the work done by researchers at the Center for Research on Environmental Decisions (CRED), at Columbia University, @ http://cred.columbia.edu.] 

Danzing sobre comunicação, inteligência e tortura

O debate é marcado por certa visão interna americana sobre o valor social do aparato de inteligência, mas há pontos interessantes sobre comunicação e política, relevantes para pesquisa na área.

Five Reasons Why Torture Did Not Help U.S. Forces Find Bin Laden

5-3-2011

By David Danzig – http://www.humanrightsfirst.org

The AP reported: “Current and former U.S. officials say that Khalid Sheikh Mohammed, the mastermind of the Sept. 11, 2001 terrorist attacks, provided the nom de guerre of one of bin Laden’s most trusted aides. The CIA got similar information from Mohammed’s successor, Abu Faraj al-Libi. Both were subjected to harsh interrogation tactics inside CIA prisons in Poland and Romania.”

Since Bin Laden’s death, Liz Cheney, the daughter of the former Vice President, and other proponents of “enhanced” interrogation techniques have taken to the air waves to trumpet this bit of news, but there is every reason to believe that torture actually hindered, rather than helped, U.S. efforts to find Bin Laden. Here are five of them.

1) It’s not so simple

Khalid Sheik Muhammed (KSM) did not talk, according to the AP, when he was tortured, but rather months later when he was questioned using humane interrogation techniques.

When asked on “Morning Joe” if KSM had provided information on the courier due to torture, John Brennan, the President’s Counter Terrorism advisor said, “not to my knowledge.” Brennan was later asked on FOX News if KSM and al-Libi had provided the initial information about the courier. “If only it were that simple,” he said.

2) KSM did not tell us everything he knew

KSM and al-Libi almost certainly concealed a great deal of information about the courier who ultimately led US forces to Bin Laden. Indeed, Bin Laden was killed in the town where Al Libi used to live. Al Libi’s role was to prepare safe houses for Al Qaeda leaders like Bin Laden, and the courier has been described repeatedly as “a confidant of Khalid Sheik Muhammed.” Yet all CIA interrogators were able to learn was a nickname for him. As compared to what they could have learned, this is not very impressive.

A senior US official told reporters that it was only four years later that US forces learned the courier’s real name and location.

3) Interrogators say that using torture does not make a detainee reveal the whole truth later

Some will argue that it was only thanks to the waterboarding that KSM and al-Libi were willing to talk at all. This notion is rejected by the more than 75 interrogators, questioners and debriefers with the military, the FBI and the CIA who I have spoken to in depth about this subject since the revelations of abuse at Abu Ghraib. I have yet to speak to a professional interrogator who believes that torture is an effective means of questioning suspected terrorists.

Jack Cloonan who served on the FBI’s Osama Bin Laden unit for 6 years told me that during an interrogation (or what the FBI calls an interview) the goal was to, “work towards the objective of getting this person to cross the threshold and become, in effect, a traitor to their own cause.”

According to Cloonan, “the Al Qaeda people that I dealt with were all very sophisticated in terms of their language skills and understanding of what was at stake.” Cloonan said that it essentially became a question of whether he could offer the detainee enough of what he wanted (protection for his family, more lenient sentencing/incarceration etc.) to convince him to talk. “They struggled,” he said, “with whether or not I was being truthful and I was going to honor everything I said.”

If you gave the detainee any reason not to trust you, there is no negotiation, Cloonan explained. The detainee won’t be willing to bargain with giving up his knowledge in exchange for something the interrogator can provide. He simply won’t trust you. Torture, Cloonan says, shatters any possibility for trust. “It changes the dynamic,” Cloonan said. “And once you have gone down that path, in my experience there is no going back.”

4) We simply do not know how much more helpful KSM and Al Libi might have been if they had been interrogated solely using humane methods that have been proven to be effective

In the war on terror, the most wanted men to date have been captured thanks to intelligence developed by interrogators who do not use abuse.

I once showed Joe Navarro a former FBI special agent who used to teach questioning techniques, a TV clip of the FOX show “24” featuring Jack Bauer torturing someone while yelling “where is the bomb?” and asked him why that sort of tactic would not work on high value detainees. “That’s ridiculous,” said Navarro. “I want to know everything that a detainee knows. I don’t simply want to know where the bomb is! I want to know who funds him and how? Where are their safehouses? Who else does he know? What does he know that I don’t even know to ask about?” The dynamics of a torture session make for good TV because the detainee delivers the info in a short sound bite. But in the real world, interrogators who use abuse put themselves in a position where detainees will, at best, provide them with only limited information.

Consider other high profile captures and kills in the war on terrorism. The former insurgent who fingered Saddam Hussein voluntarily drew his U.S. interrogator a map showing exactly what spider hole the former dictator was hiding in. And the Al Qaeda operative who pointed US forces to Al Zarqawi, the former head of Al Qaeda in Iraq, told his interrogators the name of Zarqawi’s spiritual advisor and what kind of car he drove. (Ultimately coalition forces followed the advisor’s car to Zarqawi.)

This level of cooperation is unthinkable if torture is used. And it leaves one wondering if we might have found Osama Bin Laden earlier if KSM and al-Libi had been interrogated by the FBI’s subject matter expert or another interrogator committed to using humane techniques from the start.

5) The optics of the US using torture do not help in the larger struggle

Consider the case of Nasir Abbas, a former high-level terrorist who worked with Jemaah Islamiya (JI), the Indonesian terrorist group responsible for the Bali bombings.

Abbas was captured by Detachment 88, an Indonesian police task force so committed to using humane techniques that its interrogators often begin interrogation sessions by praying together with detainees as “fellow muslims.” Abbas, as he explains, in a best selling book recently released in Indonesia decided, in part thanks to his treatment by police authorities, that the way that JI engaged in killing innocent civilians was wrong. He provided the Indonesian police with dozens of leads and it is thanks to his – and other former JI operatives’ conversion – that officials say they have been able to substantially reduce the threat from JI.

How many chances has the U.S. had to convert someone like Nasir Abbas to our side?

How potent a weapon might it be to have a former Al Qaeda operative announce publically that he thinks that what Al Qaeda does is wrong and that he was wrong about his captors? (And for that matter how helpful might it be to have found a well-placed Pakistani in the town where Bin Laden was holed up who was willing to rat him out simply because it was the right thing to do.)

I am sure that the Liz Cheney’s of the world would say that this outlook is naive and that these trained killers would never turn on their comrades. To them, I can only say that I am sure that the directors of Detachment 88, in Indonesia, and the interrogators who led us to Saddam Hussein and Al Zarqawi faced the same criticism.

David Danzig is a senior advisor to Human Rights First

>Climategate: What Really Happened? (Mother Jones)

>

Estatais inovam mais do que as companhias privadas, mostra pesquisa (Agência Brasil)

JC e-mail 4244, de 26 de Abril de 2011.

Entre 2006 e 2008, as empresas estatais federais promoveram mais inovações do que as companhias privadas.

Praticamente sete em cada 10 empresas públicas criaram algum produto ou processo nesse período, segundo a Pesquisa de Inovação nas Empresas Estatais Federais 2008, divulgada quarta-feira (20) pelo Instituto Brasileiro de Geografia e Estatística (IBGE). Entre as empresas privadas, de acordo com a última Pesquisa de Inovação Tecnológica (Pintec) do IBGE, a relação cai para quatro em cada dezena.

O estudo sobre inovação nas estatais foi feito em parceria com os ministérios da Ciência e Tecnologia e do Planejamento e analisou, pela primeira vez, as empresas federais isoladamente. Ao todo, foram investigadas 72 companhias públicas, de um total de 118 acompanhadas pelo Departamento de Coordenação e Controle das Empresas Estatais (Dest).

De acordo com a gerente responsável pela pesquisa, Fernanda Vilhena, esse resultado reflete o padrão de inovação observado nas estatais federais, mais voltado para pesquisa e desenvolvimento (P&D), geralmente em parceria com universidades. “O grande diferencial é que as empresas, sobretudo as industriais, promovem a inovação muito baseada na compra de máquinas e equipamentos. Já nas estatais federais, o padrão de inovação é voltado para pesquisa e desenvolvimento dentro da própria empresa e, também, com arranjos cooperativos com universidades. Isso é muito interessante e acabou determinando o resultado positivo de inovação nessas companhias”, disse ele.

A pesquisa também revelou que, entre as estatais inovadoras, 27,8% lançaram algum produto novo no mercado nacional e 29,2% implementaram processo inédito, também direcionado ao mercado interno. Nas empresas privadas, esses percentuais são 4,4% e 2,4%, respectivamente.

Vilhena ressaltou que essa diferença pode ser explicada, além do volume maior de investimentos em pesquisa e desenvolvimento, pelo monopólio que algumas estatais exercem em determinados setores, como o de energia. “Essas empresas são muito intensivas em pesquisa e desenvolvimento, o que gera muito processo inovador. No caso dos produtos, as estatais, muitas vezes, são as únicas ofertantes de um produto.
Então, ao lançar um produto novo, ele é automaticamente novo para o mercado”.

A pesquisa também destacou que o apoio do governo, por meio de bolsas de fundações de amparo à pesquisa e dos incentivos do Plano de Aceleração do Crescimento (PAC), impulsionou as inovações nas empresas estatais. Já em relação aos entraves para implementar processos inovadores, o estudo revela que as dificuldades são mais evidentes nas companhias públicas. Mais da metade (57,1%) enfrentaram pelo menos um obstáculo de importância alta ou média para inovar, especialmente relacionado à burocracia da administração pública. A dificuldade para se adequar a padrões, normas e regulamentações e a rigidez organizacional foram citados por 64,2% delas. Já para o conjunto de empresas privadas ouvidas pela Pintec, os maiores obstáculos foram os elevados custos da inovação (57,1%), os riscos econômicos excessivos (65,6%) e a escassez de financiamento (51,4%).
(Agência Brasil)

>The Science of Why We Don’t Believe Science (Mother Jones)

>

Illustration: Jonathon Rosen
How our brains fool us on climate, creationism, and the vaccine-autism link.

— By Chris Mooney
Mon Apr. 18, 2011 3:00 AM PDT

“A MAN WITH A CONVICTION is a hard man to change. Tell him you disagree and he turns away. Show him facts or figures and he questions your sources. Appeal to logic and he fails to see your point.” So wrote the celebrated Stanford University psychologist Leon Festinger, in a passage that might have been referring to climate change denial—the persistent rejection, on the part of so many Americans today, of what we know about global warming and its human causes. But it was too early for that—this was the 1950s—and Festinger was actually describing a famous case study in psychology.

Festinger and several of his colleagues had infiltrated the Seekers, a small Chicago-area cult whose members thought they were communicating with aliens—including one, “Sananda,” who they believed was the astral incarnation of Jesus Christ. The group was led by Dorothy Martin, a Dianetics devotee who transcribed the interstellar messages through automatic writing.

Through her, the aliens had given the precise date of an Earth-rending cataclysm: December 21, 1954. Some of Martin’s followers quit their jobs and sold their property, expecting to be rescued by a flying saucer when the continent split asunder and a new sea swallowed much of the United States. The disciples even went so far as to remove brassieres and rip zippers out of their trousers—the metal, they believed, would pose a danger on the spacecraft.

Festinger and his team were with the cult when the prophecy failed. First, the “boys upstairs” (as the aliens were sometimes called) did not show up and rescue the Seekers. Then December 21 arrived without incident. It was the moment Festinger had been waiting for: How would people so emotionally invested in a belief system react, now that it had been soundly refuted?

At first, the group struggled for an explanation. But then rationalization set in. A new message arrived, announcing that they’d all been spared at the last minute. Festinger summarized the extraterrestrials’ new pronouncement: “The little group, sitting all night long, had spread so much light that God had saved the world from destruction.” Their willingness to believe in the prophecy had saved Earth from the prophecy!

From that day forward, the Seekers, previously shy of the press and indifferent toward evangelizing, began to proselytize. “Their sense of urgency was enormous,” wrote Festinger. The devastation of all they had believed had made them even more certain of their beliefs.

In the annals of denial, it doesn’t get much more extreme than the Seekers. They lost their jobs, the press mocked them, and there were efforts to keep them away from impressionable young minds. But while Martin’s space cult might lie at on the far end of the spectrum of human self-delusion, there’s plenty to go around. And since Festinger’s day, an array of new discoveries in psychology and neuroscience has further demonstrated how our preexisting beliefs, far more than any new facts, can skew our thoughts and even color what we consider our most dispassionate and logical conclusions. This tendency toward so-called “motivated reasoning” helps explain why we find groups so polarized over matters where the evidence is so unequivocal: climate change, vaccines, “death panels,” the birthplace and religion of the president, and much else. It would seem that expecting people to be convinced by the facts flies in the face of, you know, the facts.

The theory of motivated reasoning builds on a key insight of modern neuroscience: Reasoning is actually suffused with emotion (or what researchers often call “affect”). Not only are the two inseparable, but our positive or negative feelings about people, things, and ideas arise much more rapidly than our conscious thoughts, in a matter of milliseconds—fast enough to detect with an EEG device, but long before we’re aware of it. That shouldn’t be surprising: Evolution required us to react very quickly to stimuli in our environment. It’s a “basic human survival skill,” explains political scientist Arthur Lupia of the University of Michigan. We push threatening information away; we pull friendly information close. We apply fight-or-flight reflexes not only to predators, but to data itself.

“We apply fight-or-flight reflexes not only to predators, but to data itself.”

We’re not driven only by emotions, of course—we also reason, deliberate. But reasoning comes later, works slower—and even then, it doesn’t take place in an emotional vacuum. Rather, our quick-fire emotions can set us on a course of thinking that’s highly biased, especially on topics we care a great deal about.

Consider a person who has heard about a scientific discovery that deeply challenges her belief in divine creation—a new hominid, say, that confirms our evolutionary origins. What happens next, explains political scientist Charles Taber of Stony Brook University, is a subconscious negative response to the new information—and that response, in turn, guides the type of memories and associations formed in the conscious mind. “They retrieve thoughts that are consistent with their previous beliefs,” says Taber, “and that will lead them to build an argument and challenge what they’re hearing.”

In other words, when we think we’re reasoning, we may instead be rationalizing. Or to use an analogy offered by University of Virginia psychologist Jonathan Haidt: We may think we’re being scientists, but we’re actually being lawyers. Our “reasoning” is a means to a predetermined end—winning our “case”—and is shot through with biases. They include “confirmation bias,” in which we give greater heed to evidence and arguments that bolster our beliefs, and “disconfirmation bias,” in which we expend disproportionate energy trying to debunk or refute views and arguments that we find uncongenial.

That’s a lot of jargon, but we all understand these mechanisms when it comes to interpersonal relationships. If I don’t want to believe that my spouse is being unfaithful, or that my child is a bully, I can go to great lengths to explain away behavior that seems obvious to everybody else—everybody who isn’t too emotionally invested to accept it, anyway. That’s not to suggest that we aren’t also motivated to perceive the world accurately—we are. Or that we never change our minds—we do. It’s just that we have other important goals besides accuracy—including identity affirmation and protecting one’s sense of self—and often those make us highly resistant to changing our beliefs when the facts say we should.

Modern science originated from an attempt to weed out such subjective lapses—what that great 17th century theorist of the scientific method, Francis Bacon, dubbed the “idols of the mind.” Even if individual researchers are prone to falling in love with their own theories, the broader processes of peer review and institutionalized skepticism are designed to ensure that, eventually, the best ideas prevail.

“Scientific evidence is highly susceptible to misinterpretation. Giving ideologues scientific data that’s relevant to their beliefs is like unleashing them in the motivated-reasoning equivalent of a candy store.”

Our individual responses to the conclusions that science reaches, however, are quite another matter. Ironically, in part because researchers employ so much nuance and strive to disclose all remaining sources of uncertainty, scientific evidence is highly susceptible to selective reading and misinterpretation. Giving ideologues or partisans scientific data that’s relevant to their beliefs is like unleashing them in the motivated-reasoning equivalent of a candy store.

Sure enough, a large number of psychological studies have shown that people respond to scientific or technical evidence in ways that justify their preexisting beliefs. In a classic 1979 experiment, pro- and anti-death penalty advocates were exposed to descriptions of two fake scientific studies: one supporting and one undermining the notion that capital punishment deters violent crime and, in particular, murder. They were also shown detailed methodological critiques of the fake studies—and in a scientific sense, neither study was stronger than the other. Yet in each case, advocates more heavily criticized the study whose conclusions disagreed with their own, while describing the study that was more ideologically congenial as more “convincing.”

Since then, similar results have been found for how people respond to “evidence” about affirmative action, gun control, the accuracy of gay stereotypes, and much else. Even when study subjects are explicitly instructed to be unbiased and even-handed about the evidence, they often fail.

And it’s not just that people twist or selectively read scientific evidence to support their preexisting views. According to research by Yale Law School professor Dan Kahan and his colleagues, people’s deep-seated views about morality, and about the way society should be ordered, strongly predict whom they consider to be a legitimate scientific expert in the first place—and thus where they consider “scientific consensus” to lie on contested issues.

In Kahan’s research, individuals are classified, based on their cultural values, as either “individualists” or “communitarians,” and as either “hierarchical” or “egalitarian” in outlook. (Somewhat oversimplifying, you can think of hierarchical individualists as akin to conservative Republicans, and egalitarian communitarians as liberal Democrats.) In one study, subjects in the different groups were asked to help a close friend determine the risks associated with climate change, sequestering nuclear waste, or concealed carry laws: “The friend tells you that he or she is planning to read a book about the issue but would like to get your opinion on whether the author seems like a knowledgeable and trustworthy expert.” A subject was then presented with the résumé of a fake expert “depicted as a member of the National Academy of Sciences who had earned a Ph.D. in a pertinent field from one elite university and who was now on the faculty of another.” The subject was then shown a book excerpt by that “expert,” in which the risk of the issue at hand was portrayed as high or low, well-founded or speculative. The results were stark: When the scientist’s position stated that global warming is real and human-caused, for instance, only 23 percent of hierarchical individualists agreed the person was a “trustworthy and knowledgeable expert.” Yet 88 percent of egalitarian communitarians accepted the same scientist’s expertise. Similar divides were observed on whether nuclear waste can be safely stored underground and whether letting people carry guns deters crime. (The alliances did not always hold. In another study, hierarchs and communitarians were in favor of laws that would compel the mentally ill to accept treatment, whereas individualists and egalitarians were opposed.)

“Head-on attempts to persuade can sometimes trigger a backfire effect, where people not only fail to change their minds when confronted with the facts—they may hold their wrong views more tenaciously than ever.”

In other words, people rejected the validity of a scientific source because its conclusion contradicted their deeply held views—and thus the relative risks inherent in each scenario. A hierarchal individualist finds it difficult to believe that the things he prizes (commerce, industry, a man’s freedom to possess a gun to defend his family) could lead to outcomes deleterious to society. Whereas egalitarian communitarians tend to think that the free market causes harm, that patriarchal families mess up kids, and that people can’t handle their guns. The study subjects weren’t “anti-science”—not in their own minds, anyway. It’s just that “science” was whatever they wanted it to be. “We’ve come to a misadventure, a bad situation where diverse citizens, who rely on diverse systems of cultural certification, are in conflict,” says Kahan.

And that undercuts the standard notion that the way to persuade people is via evidence and argument. In fact, head-on attempts to persuade can sometimes trigger a backfire effect, where people not only fail to change their minds when confronted with the facts—they may hold their wrong views more tenaciously than ever.

Take, for instance, the question of whether Saddam Hussein possessed hidden weapons of mass destruction just before the US invasion of Iraq in 2003. When political scientists Brendan Nyhan and Jason Reifler showed subjects fake newspaper articles in which this was first suggested (in a 2004 quote from President Bush) and then refuted (with the findings of the Bush-commissioned Iraq Survey Group report, which found no evidence of active WMD programs in pre-invasion Iraq), they found that conservatives were more likely than before to believe the claim. (The researchers also tested how liberals responded when shown that Bush did not actually “ban” embryonic stem-cell research. Liberals weren’t particularly amenable to persuasion, either, but no backfire effect was observed.)

Another study gives some inkling of what may be going through people’s minds when they resist persuasion. Northwestern University sociologist Monica Prasad and her colleagues wanted to test whether they could dislodge the notion that Saddam Hussein and Al Qaeda were secretly collaborating among those most likely to believe it—Republican partisans from highly GOP-friendly counties. So the researchers set up a study in which they discussed the topic with some of these Republicans in person. They would cite the findings of the 9/11 Commission, as well as a statement in which George W. Bush himself denied his administration had “said the 9/11 attacks were orchestrated between Saddam and Al Qaeda.”

“One study showed that not even Bush’s own words could change the minds of Bush voters who believed there was an Iraq-Al Qaeda link.”

As it turned out, not even Bush’s own words could change the minds of these Bush voters—just 1 of the 49 partisans who originally believed the Iraq-Al Qaeda claim changed his or her mind. Far more common was resisting the correction in a variety of ways, either by coming up with counterarguments or by simply being unmovable:

Interviewer: [T]he September 11 Commission found no link between Saddam and 9/11, and this is what President Bush said. Do you have any comments on either of those? 

Respondent: Well, I bet they say that the Commission didn’t have any proof of it but I guess we still can have our opinions and feel that way even though they say that.

The same types of responses are already being documented on divisive topics facing the current administration. Take the “Ground Zero mosque.” Using information from the political myth-busting site FactCheck.org, a team at Ohio State presented subjects with a detailed rebuttal to the claim that “Feisal Abdul Rauf, the Imam backing the proposed Islamic cultural center and mosque, is a terrorist-sympathizer.” Yet among those who were aware of the rumor and believed it, fewer than a third changed their minds.

A key question—and one that’s difficult to answer—is how “irrational” all this is. On the one hand, it doesn’t make sense to discard an entire belief system, built up over a lifetime, because of some new snippet of information. “It is quite possible to say, ‘I reached this pro-capital-punishment decision based on real information that I arrived at over my life,'” explains Stanford social psychologist Jon Krosnick. Indeed, there’s a sense in which science denial could be considered keenly “rational.” In certain conservative communities, explains Yale’s Kahan, “People who say, ‘I think there’s something to climate change,’ that’s going to mark them out as a certain kind of person, and their life is going to go less well.”

This may help explain a curious pattern Nyhan and his colleagues found when they tried to test the fallacy that President Obama is a Muslim. When a nonwhite researcher was administering their study, research subjects were amenable to changing their minds about the president’s religion and updating incorrect views. But when only white researchers were present, GOP survey subjects in particular were more likely to believe the Obama Muslim myth than before. The subjects were using “social desirabililty” to tailor their beliefs (or stated beliefs, anyway) to whoever was listening.

Which leads us to the media. When people grow polarized over a body of evidence, or a resolvable matter of fact, the cause may be some form of biased reasoning, but they could also be receiving skewed information to begin with—or a complicated combination of both. In the Ground Zero mosque case, for instance, a follow-up study showed that survey respondents who watched Fox News were more likely to believe the Rauf rumor and three related ones—and they believed them more strongly than non-Fox watchers.

Okay, so people gravitate toward information that confirms what they believe, and they select sources that deliver it. Same as it ever was, right? Maybe, but the problem is arguably growing more acute, given the way we now consume information—through the Facebook links of friends, or tweets that lack nuance or context, or “narrowcast” and often highly ideological media that have relatively small, like-minded audiences. Those basic human survival skills of ours, says Michigan’s Arthur Lupia, are “not well-adapted to our information age.”

“A predictor of whether you accept the science of global warming? Whether you’re a Republican or a Democrat.”

If you wanted to show how and why fact is ditched in favor of motivated reasoning, you could find no better test case than climate change. After all, it’s an issue where you have highly technical information on one hand and very strong beliefs on the other. And sure enough, one key predictor of whether you accept the science of global warming is whether you’re a Republican or a Democrat. The two groups have been growing more divided in their views about the topic, even as the science becomes more unequivocal.

So perhaps it should come as no surprise that more education doesn’t budge Republican views. On the contrary: In a 2008 Pew survey, for instance, only 19 percent of college-educated Republicans agreed that the planet is warming due to human actions, versus 31 percent of non-college educated Republicans. In other words, a higher education correlated with an increased likelihood of denying the science on the issue. Meanwhile, among Democrats and independents, more education correlated with greater acceptance of the science.

Other studies have shown a similar effect: Republicans who think they understand the global warming issue best are least concerned about it; and among Republicans and those with higher levels of distrust of science in general, learning more about the issue doesn’t increase one’s concern about it. What’s going on here? Well, according to Charles Taber and Milton Lodge of Stony Brook, one insidious aspect of motivated reasoning is that political sophisticates are prone to be more biased than those who know less about the issues. “People who have a dislike of some policy—for example, abortion—if they’re unsophisticated they can just reject it out of hand,” says Lodge. “But if they’re sophisticated, they can go one step further and start coming up with counterarguments.” These individuals are just as emotionally driven and biased as the rest of us, but they’re able to generate more and better reasons to explain why they’re right—and so their minds become harder to change.

That may be why the selectively quoted emails of Climategate were so quickly and easily seized upon by partisans as evidence of scandal. Cherry-picking is precisely the sort of behavior you would expect motivated reasoners to engage in to bolster their views—and whatever you may think about Climategate, the emails were a rich trove of new information upon which to impose one’s ideology.

Climategate had a substantial impact on public opinion, according to Anthony Leiserowitz, director of the Yale Project on Climate Change Communication. It contributed to an overall drop in public concern about climate change and a significant loss of trust in scientists. But—as we should expect by now—these declines were concentrated among particular groups of Americans: Republicans, conservatives, and those with “individualistic” values. Liberals and those with “egalitarian” values didn’t lose much trust in climate science or scientists at all. “In some ways, Climategate was like a Rorschach test,” Leiserowitz says, “with different groups interpreting ambiguous facts in very different ways.”

“Is there a case study of science denial that largely occupies the political left? Yes: the claim that childhood vaccines are causing an epidemic of autism.”

So is there a case study of science denial that largely occupies the political left? Yes: the claim that childhood vaccines are causing an epidemic of autism. Its most famous proponents are an environmentalist (Robert F. Kennedy Jr.) and numerous Hollywood celebrities (most notably Jenny McCarthy and Jim Carrey). The Huffington Post gives a very large megaphone to denialists. And Seth Mnookin, author of the new book The Panic Virus, notes that if you want to find vaccine deniers, all you need to do is go hang out at Whole Foods.

Vaccine denial has all the hallmarks of a belief system that’s not amenable to refutation. Over the past decade, the assertion that childhood vaccines are driving autism rates has been undermined by multiple epidemiological studies—as well as the simple fact that autism rates continue to rise, even though the alleged offending agent in vaccines (a mercury-based preservative called thimerosal) has long since been removed.

Yet the true believers persist—critiquing each new study that challenges their views, and even rallying to the defense of vaccine-autism researcher Andrew Wakefield, after his 1998 Lancet paper—which originated the current vaccine scare—was retracted and he subsequently lost his license (PDF) to practice medicine. But then, why should we be surprised? Vaccine deniers created their own partisan media, such as the website Age of Autism, that instantly blast out critiques and counterarguments whenever any new development casts further doubt on anti-vaccine views.

It all raises the question: Do left and right differ in any meaningful way when it comes to biases in processing information, or are we all equally susceptible?

There are some clear differences. Science denial today is considerably more prominent on the political right—once you survey climate and related environmental issues, anti-evolutionism, attacks on reproductive health science by the Christian right, and stem-cell and biomedical matters. More tellingly, anti-vaccine positions are virtually nonexistent among Democratic officeholders today—whereas anti-climate-science views are becoming monolithic among Republican elected officials.

Some researchers have suggested that there are psychological differences between the left and the right that might impact responses to new information—that conservatives are more rigid and authoritarian, and liberals more tolerant of ambiguity. Psychologist John Jost of New York University has further argued that conservatives are “system justifiers”: They engage in motivated reasoning to defend the status quo.

This is a contested area, however, because as soon as one tries to psychoanalyze inherent political differences, a battery of counterarguments emerges: What about dogmatic and militant communists? What about how the parties have differed through history? After all, the most canonical case of ideologically driven science denial is probably the rejection of genetics in the Soviet Union, where researchers disagreeing with the anti-Mendelian scientist (and Stalin stooge) Trofim Lysenko were executed, and genetics itself was denounced as a “bourgeois” science and officially banned.

The upshot: All we can currently bank on is the fact that we all have blinders in some situations. The question then becomes: What can be done to counteract human nature itself?

“We all have blinders in some situations. The question then becomes: What can be done to counteract human nature?”

Given the power of our prior beliefs to skew how we respond to new information, one thing is becoming clear: If you want someone to accept new evidence, make sure to present it to them in a context that doesn’t trigger a defensive, emotional reaction.

This theory is gaining traction in part because of Kahan’s work at Yale. In one study, he and his colleagues packaged the basic science of climate change into fake newspaper articles bearing two very different headlines—”Scientific Panel Recommends Anti-Pollution Solution to Global Warming” and “Scientific Panel Recommends Nuclear Solution to Global Warming”—and then tested how citizens with different values responded. Sure enough, the latter framing made hierarchical individualists much more open to accepting the fact that humans are causing global warming. Kahan infers that the effect occurred because the science had been written into an alternative narrative that appealed to their pro-industry worldview.

You can follow the logic to its conclusion: Conservatives are more likely to embrace climate science if it comes to them via a business or religious leader, who can set the issue in the context of different values than those from which environmentalists or scientists often argue. Doing so is, effectively, to signal a détente in what Kahan has called a “culture war of fact.” In other words, paradoxically, you don’t lead with the facts in order to convince. You lead with the values—so as to give the facts a fighting chance.

[Original link with access to mentioned studies here.]

Que democracia racial é essa? (Carta Capital)

Por Rodrigo Martins

20 de abril de 2011

Apesar da redução das disparidades propiciadas por programas de segurança alimentar, como o Bolsa Família, o abismo que separa brancos e negros no Brasil continua gigantesco. Essa é uma das conclusões do 2º Relatório Anual de Desigualdades Raciais, divulgado na terça-feira 19, pelo Instituto de Economia da Universidade Federal do Rio de Janeiro (UFRJ).

Os indicadores foram compilados a partir de diferentes bases de dados do IBGE, dos ministérios da Saúde e Educação, entre outras instituições públicas. O estudo revela que os afrodescendentes têm menor acesso ao sistema de saúde (uma taxa de não cobertura de 27%, frente aos 14% verificados entre a população branca), a exames ginecológicos preventivos, ao pré-natal e sofrem com uma taxa maior de mortalidade materna.

Por dia, morrem cerca de 2,6 mulheres pretas ou pardas por complicações na gestação, enquanto este mesmo problema acomete 1,5 mulheres brancas. Entre 1986 e 2008, a taxa de fecundidade das afrodescendentes caiu de forma mais acelerada (48,8%) que a das brancas (36,7%). No entanto, as mulheres pretas ou pardas se sujeitam com mais intensidade a procedimentos radicais de contracepção, como as laqueaduras. Quase 30% dessa população em idade fértil estavam esterilizada em 2006, frente a uma taxa de 21,7% das mulheres brancas.

“Ninguém é contra o planejamento familiar. A queda na taxa de natalidade representa uma melhora na qualidade de vida das pessoas. Mas as afrodescendentes poderiam ter acesso a formas menos agressivas de intervenção”, avalia o economista Marcelo Paixão, coordenador do relatório. “A esterilização é uma solução radical demais. É como arrancar um dente para não tratar uma cárie. Por isso, causa preocupação o fato de parte dessa redução da fecundidade estar associada às laqueaduras.”

Nos últimos 20 anos, a média do tempo de estudos dos afrodescendentes acima de 15 anos passou de 3,6 anos para 6,5. Mesmo assim, está muito aquém da população branca, hoje com uma média de 8,3 anos de estudo. Além disso, 45,4% das crianças pretas ou pardas entre 6 e 10 anos estudava na série inadequada em 2008, frente ao percentual do 40,4% dos brancos. Entre as crianças de 11 e 14 anos, o problema é ainda mais grave, pois 62,3% dos afrodescendentes não estudavam na série correta. Entre os jovens brancos, a inadequação atingia 45,7%.

Por outro lado, as famílias pretas ou pardas beneficiadas pelo Bolsa Família conseguiram aumentar a quantidade de alimentos consumidos em proporção superior (75,7%) a das famílias brancas (70,1%). A elevação no consumo de arroz entre os afrodescendentes foi de 68,5%. Brancos: 31,5%. No caso do feijão, o consumo dos pretos e pardos cresceu 68%. Brancos: 32%.

“Apesar de melhorar a segurança alimentar dos afrodescendentes, o que é importantíssimo, em todos os outros setores percebe que a discrepância entre brancos e negros prevalece”, comenta Paixão. “Devido às elevadas taxas de desemprego, rotatividade no mercado de trabalho e informalidade, os pretos e partos tem um acesso bem menor à cobertura da Previdência Social. A diferença chega a dez pontos percentuais na população masculina e 20% entre as mulheres”, completa.

Outro dado que chama a atenção é o baixo índice de condenação por crimes de racismo no Brasil. Entre 2007 e 2008, 66,9% dos casos julgados nos Tribunais de Justiça de todo o País foram vencidas pelos réus e apenas 29,7% das supostas vítimas saíram vitoriosas. Na primeira instância, as vítimas tiveram sua demanda judicial contemplada em 40,5% dos acórdãos.

“Talvez os magistrados ainda acreditem no mito da democracia racial brasileira e, por isso, sejam mais brandos nas condenações e na aplicação das penas”, especula o professor da UFRJ. “Pela lei, o racismo é um crime inafiançável e imprescritível, mas não tenho notícia de um único racista condenado à prisão no Brasil. Vejo apenas punições pecuniárias, sobretudo indenizações, e pedidos de desculpas formais.”

Climate, Communication and the ‘Nerd Loop’ (N.Y. Times, Dot Earth)

April 14, 2011, 9:46 AM – By ANDREW C. REVKIN

Randy Olson, the marine biologist turned filmmaker and author who’s about as far from the label “nerd” as can be, had his Howard Beale “mad as hell” moment over climate miscommunication last week on his blog, The Benshi.

The piece, “The Nerd Loop: Why I’m Losing Interest in Communicating Climate Change,” is a long disquisition on why there’s too much thumb sucking and circular analysis and not enough experimentation among institutions concerned about public indifference to risks posed by human-driven global warming. He particularly criticizes scientific groups, universities, environmental groups and foundations and other sources of funding. Randy summarized his points in a short “index card” presentation (in lieu of a Powerpoint) and followup interview on Skype (above). [Stephen McIntyre of Climateaudit has posted a response, entitled “The Smug Loop.“]

In our chat I admitted freely that I’ve stepped aboard the “nerd loop” on occasion on this blog, exploring humanity’s “blah, blah, blah, bang” habit when it comes to confronting certain kinds of risks. This goes for financial bubbles and tsunamis as well as long-term, long-lasting changes in the climate.

I agree with Olson, utterly, that there’s not enough experimentation, too much fear of failure and also far too much fear and misunderstanding at scientific institutions, from America’s universities to the Intergovernmental Panel on Climate Change, about the obligation and responsibility to engage the public in a sustained way. As I’ve put it here and elsewhere many times, it’s particularly important as traditional science journalism becomes a shrinking wedge of a growing pie of communication portals.

I encourage you to watch the video and/or read Olson’s provocative essay. You won’t agree with all of what he says. I don’t, and in fact I think that research revealing the human habit of embracing or ignoring information based on predispositions and emotion, not the information, is vitally important to convey (and needs to be conveyed more creatively, too!).

But I hope you’ll recognize the merits in Olson’s argument. Here’s the summary of the “Nerd Loop” essay:

Mass communication is not a science. How many times do I have to say this? The more you think it is — or even let yourself talk about the science side of it without allocating EQUAL energy to the art side of it, the more you are doomed to take it deeper into the hole of boredom and irrelevance. Such is the state of climate science communication by the large science and environmental organizations who have bought into the magic bullet of metrics and messaging.

AND FURTHERMORE … eh, hem (a colleague at NASA just pointed this out to me) … look at this quote: “Recent advances in behavioral and decision science also tell us that emotion is an integral part of our thinking, perceptions, and behavior, and can be essential for making well-judged decisions.”

“RECENT ADVANCES”??? Social scientists think this is some sort of recent breakthrough — that humans are not robots? The quote comes from a paper in the first volume of the new Nature Climate journal. As my colleague said, “What rock did these guys crawl out from under? Give me a break all you social scientists and quit living up to your stereotype.”

Honestly.

Here are some relevant posts and links. Beware, you’re about to enter “the nerd loop” (which I, personally, see as important, even as everyone loosens up and starts experimenting):

The Psychology of Climate Change Communication” (The Center for Research on Environmental Decisions, Columbia University)

Climate, Mind and Behavior” (a series of symposiums at the Garrison Institute)

Communicating Climate Change” (The Pew Center on Global Climate Change)

Knowledge of Climate Change Across Global Warming’s Six Americas” (Yale Project on Climate Change Communication)

[Original link: http://dotearth.blogs.nytimes.com/2011/04/14/climate-communication-and-the-nerd-loop/]

>Evento promove o Ciber-Ciência Cidadã no Brasil (JC/Gestão C&T)

>
JC e-mail 4240, de 18 de Abril de 2011

Ele é voltado aos interessados em participar de projetos científicos relacionados aos mais diversos temas, como mudanças climáticas, física de partículas, além de desenvolvedores, programadores e cientistas.

No mês de maio, alguns estados receberão o evento Brasil@home, uma iniciativa para promover o Ciber-Ciência Cidadã, que é a participação da sociedade em projetos científicos via internet, no Brasil e na América Latina. É uma introdução aos conceitos e prática de computação voluntária, inteligência distribuída e sensoriamento remoto voluntário.

No encontro, cientistas chefes dos principais projetos de Ciber-Ciência Cidadã no mundo ministrarão palestras e contribuirão para fomentar novos projetos no Brasil. O evento é voltado para interessados em participar de projetos científicos relacionados aos mais diversos temas, como mudanças climáticas, física de partículas, digitalização de documentos históricos, além de desenvolvedores, programadores e cientistas.

Alguns dos palestrantes são David Anderson, da University of Berkeley, criador do Seti@home, primeiro projeto de computação voluntária; Philip Brohan, da UK Meteorological Office, cientista do projeto Old Weather, no qual cidadãos ajudam a digitalizar dados climáticos registrados em antigos diários de bordo de navios; Francois Grey, diretor do Centro de Ciber-Ciência Cidadã; entre outros.

O Brasil@home será no dia 2 de maio em Brasília (DF); de 3 a 5 do mesmo mês no Rio de Janeiro (RJ); e no dia 6 em São Paulo (SP). A programação completa e mais informações estão no site http://www.citizencyberscience.net/brasilathome.
(Gestão C&T)

>O custo de Belo Monte (JC, O Globo)

>
JC e-mail 4240, de 18 de Abril de 2011.

Artigo de Felício Pontes Jr* no jornal O Globo nesta segunda-feira (18).

A tecnologia para exploração da energia solar sempre foi apresentada como de alto custo, bastante superior aos de outras fontes de energia. Por isso, um país como o Brasil, privilegiado pela alta incidência de insolação em seu território, deixou de investir na
tecnologia solar em favor de outras fontes, principalmente a hídrica, responsável hoje pela geração de mais de 70% da energia no País. No entanto, esse argumento, o dos altos custos, não se justifica mais.

Nos Estados Unidos, dois projetos desenvolvidos na Califórnia de aproveitamento da energia térmica utilizando espelhos para a concentração de calor, Ivanpah e Blythe, provam que os custos dessa tecnologia já são bastante menores. O projeto Ivanpah, da empresa Brightsource, dobra a produção de energia solar no país. É prevista a geração de 370 MW de energia firme. São três usinas que, no total, terão um custo de R$ 3,4 bilhões. Já o projeto Blythe, das empresas Chevron e Solar Millennium, pretende produzir 960 MW ao custo de R$ 9,6 bilhões.

Se multiplicássemos o custo para geração de um megawatt nesses dois projetos de matriz solar por 4 mil megawatts médios – a quantidade, sendo otimista, de geração de energia prevista no projeto hidrelétrico de Belo Monte – teríamos um total de R$ 38 bilhões, no caso de Ivanpah, e de R$ 36,7 bilhões, se utilizarmos os valores relativos a Blythe.

Na primeira ação judicial contra Belo Monte, proposta em 2001, o governo dizia que a usina custaria R$ 10,4 bilhões. Ao pedir empréstimo ao BNDES, em 2011, o consórcio de empresas para fazer Belo Monte solicitou R$ 25 bilhões, o que representaria em torno de 80% dos custos. Logo, o custo oficial seria de R$ 31,2 bilhões. Nesse custo não estão previstos o valor do desmatamento que pode atingir 5,3 mil km² de floresta (segundo o próprio consórcio), o valor de 100 km de leito do Xingu que praticamente ficará seco, a indenização a povos indígenas e ribeirinhos localizados nesse trecho, todos os bairros de Altamira que estão abaixo da cota 100 e, portanto, serão inundados… só para mostrar alguns exemplos.

Os custos finais de Belo Monte ainda são incertos, graças ao descumprimento das leis do licenciamento ambiental em vários momentos. Conforme apontou o relatório de análise de riscos feito por especialistas e intitulado “Megaprojeto, Megarriscos”, Belo Monte tem elevados riscos associados a incertezas sobre a estrutura de custos de construção do empreendimento, referentes a fatores geológicos e topológicos, de engenharia e de instabilidade em valores de mercado. Tem elevados riscos financeiros relacionados à capacidade de geração de energia elétrica, que é muito inferior à capacidade instalada. E tem riscos associados à capacidade do empreendedor de atender obrigações legais de investir em ações de mitigação e compensação de impactos sociais e ambientais do empreendimento.

Assim, computando-se todos os custos socioambientais que normalmente estão fora do orçamento das hidrelétricas na Amazônia (vide Tucuruí, Jirau, Santo Antônio e Balbina) e mais os incertos custos da própria obra (como escavações), pode-se afirmar que o valor da energia solar já é competitivo com o de Belo Monte. Se não fosse, algumas das maiores empresas do mundo não estariam nessa área. O Grupo EBX investe na primeira usina solar comercial do País, no Ceará, a MPX Solar, com 4,4 mil painéis fotovoltaicos e capacidade de abastecer 1.500 residências. E a Google investe US$ 168 milhões no projeto Ivanpah.

Mas, enquanto países de clima temperado e com territórios muito menores, como a Alemanha e a Espanha, produzem mais energia a partir do sol do que o Brasil, aqui o governo prefere impor um modelo ultrapassado. E que agora não tem mais a vantagem de ser mais barato.

Em Belo Monte, senhores investidores, tenham certeza de que todos esses custos socioambientais serão cobrados se a barragem vier a ser construída.

*Procurador da República no Pará.
(O Globo)

>Classe média vai pautar eleições, afirmam analistas (OESP)

>
Para especialistas, questão levantada por FHC em artigo sobre como fisgar emergentes será determinante no futuro dos políticos

OESP, 16 de abril de 2011
Por Gabriel Manzano

A “nova classe média”, trazida ao centro do debate político pelo ex-presidente Fernando Henrique Cardoso, na semana passada, e namorada pelo PT, que vê na presidente Dilma Rousseff a figura talhada para conquistá-la, chegou para mudar o cenário eleitoral do País, admitem analistas, marqueteiros e estudiosos.

O tema apareceu no artigo O Papel da Oposição, divulgado por FHC, e reforçou a condição desse grupo como objeto de desejo do mundo político. É um vasto universo de 29 milhões de pessoas – pobres que, nos últimos seis anos, subiram da classe D para a C e carregam consigo novos comportamentos e expectativas. Analistas, líderes partidários, comunicólogos e marqueteiros já se esforçam para entender como reagirá, no futuro, esse segmento que, ao subir na vida, fez da classe média o maior grupo social do País, com 94 milhões de pessoas (51% da população).

“Não se trata de gente sem nada, que aceite qualquer coisa. É gente que trabalhou duro, subiu, sabe o que quer, tem mais informação e se torna mais exigente”, resume Marcia Cavallari, diretora executiva do Ibope. “Isso merece um discurso novo e FHC acertou ao mandar a oposição ir atrás dela”, disse.

Não por acaso, o economista Marcelo Néri, da Fundação Getúlio Vargas – primeiro a detectar esse fenômeno, num estudo de 2010 – considera essa iniciativa de Fernando Henrique “a segunda ideia mais inteligente da oposição em anos, depois do plano de estabilização dos anos 1994-2002”. Esse brasileiro, diz ele, “quer sonhar, e não apenas diminuir seus pesadelos”.

O impacto desse cenário já se faz sentir no mundo político, que ainda procura entender a enorme votação da candidata Marina Silva (PV) nas eleições presidenciais de 2010. “Mas é perda de tempo tentar adivinhar se é um grupo de esquerda ou de direita”, observa Antonio Prado, sócio-diretor da Análise, Pesquisa e Planejamento de Mercado (APPM), em São Paulo.

Oportunidades. Grande parte desses emergentes, afirma Prado, “são cidadãos que tomaram iniciativas, buscaram créditos, tornaram-se microempresários”. Seus filhos estão entrando na universidade via ProUni. “Como trabalhadores, não querem um Estado que os tutele, mas que lhes dê oportunidades para crescer.” E como cidadãos, continua o analista, eles esperam “que haja ordem na sociedade, para nenhum malandro lhes passar a perna” – afinal, esforçaram-se demais para chegar aonde chegaram. Dos políticos, esse eleitor espera “coerência e dedicação ao bem comum”.

Para quem imagina que isso tudo tem um certo jeito de direita, Prado avisa que “esse brasileiro já foi pobre e percebeu que uma tarefa prioritária do Estado é atacar as desigualdades”. Ou seja, a nova classe é a favor dos programas sociais.

A vendedora Solange Ferreira Luz, moradora da periferia de São Paulo, é um exemplo típico desse novo eleitor mais informado e mais exigente. “Minha maior preocupação é a escola de meus dois filhos”, diz ela. Tanto que juntou dinheiro para comprar um computador e prefere que eles estudem em escolas técnicas estaduais, que lhe parecem melhores que as municipais.

Para esse eleitor, perde peso o discurso sobre “a elite de 500 anos” ou o neoliberalismo. O que lhe interessa mais, lembra Marcia Cavallari, “é que há empregos e ele não tem preparo para se candidatar a muitos deles. Então, a qualidade do ensino se torna um fator decisivo para sua vida, para ele aprender e subir. E ele quer que seus filhos cheguem à universidade e tenham uma vida melhor que a sua. Isso torna inevitável, em próximas eleições, o debate qualificado sobre o nível da educação no Brasil.”

Pode-se estender essa nova percepção a outros setores. “Para esses emergentes sociais, é tudo novidade. Ele já faz viagens de avião – e os aeroportos estão como estão. O filho na universidade saberá avaliar melhor o nível da educação”, compara Renato Meirelles, diretor do instituto Datapopular, que faz estudos sobre o mercado popular no Brasil. Ele menciona, a propósito, pesquisas segundo as quais 68% dos filhos, na classe C, estudaram mais que os pais. Na classe A, esse percentual é de apenas 10%.

Ralé e batalhadores. Os limites desse cenário, no entanto, não podem ser ignorados. Primeiro, porque os “novos” se juntam a uma enorme classe média e podem, é claro, assimilar seus projetos e valores no dia a dia. Esse termo, nova classe média, “designa setores que ampliaram sua capacidade de consumo”, adverte Leôncio Martins Rodrigues, “mas não define especialmente um novo segmento social”.

O sociólogo Jessé Souza até se recusa a admitir que exista uma nova classe média: existem o que ele chama de “batalhadores”, uma multidão que tanto poderá ser “cooptada pelo discurso e pela prática individualista”, como “assumir um papel protagonista e ajudar a ‘ralé’ – as massas desassistidas”. O próprio Fernando Henrique afirma também que uma classe implica um estilo de vida, valores, e prefere falar de “novas categorias sociais”.

Marcelo Néri destaca, também, que “nem política nem economicamente há nada conquistado nesse público – nem pelo PT nem pelas oposições”. Além disso, “todos podem perder com a inflação, se ela voltar, e também com o desemprego”.

Bandeirantes da língua portuguesa (FAPESP)

14/4/2011

Por Mônica Pileggi

Agência FAPESP – O Projeto de história do português paulista (Projeto Caipira), coordenado pelo professor Ataliba Teixeira de Castilho, mobiliza pesquisadores de diversas instituições com o objetivo de resgatar a história da língua trazida pelos portugueses que desembarcaram na Baía de São Vicente, em 1532.

Do litoral paulista, a língua se espalhou pelo país por diversas vertentes. O Temático, que reúne mais de 200 pesquisadores – 60 deles em São Paulo –, estuda, em uma espécie de “bandeirantismo”, os caminhos percorridos pelos falantes da língua portuguesa e sua transformação até chegar à língua falada hoje.

A 12ª edição do Seminário do Projeto de História do Português Paulista termina nesta sexta-feira (15/4) no Departamento de Letras Clássicas e Vernáculas da Faculdade de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo (USP). O encontro procura avaliar os resultados obtidos pelo projeto apoiado pela FAPESP na modalidade Auxílio à Pesquisa – Projeto Temático, concluído no fim de 2010.

Castilho foi professor titular da USP, da Universidade Estadual Paulista (Unesp) e da Universidade Estadual de Campinas (Unicamp). Atualmente, aos 74 anos, é professor colaborador voluntário na Unicamp.

O pesquisador presidiu a Área de Letras e Linguística da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes) (1987-1990), a Associação Brasileira de Linguística (1983-1985) e a Associação de Linguística e Filologia da América Latina (1999-2005).

Entre seus livros recentes estão Nova Gramática do Português Brasileiro (Contexto, 2010), Gramática do Português Culto Falado no Brasil (Editora da Unicamp, 2008), Descrição, História e Aquisição do Português Brasileiro (Pontes, 2007), Gramática do Português Culto Falado no Brasil (Editora da Unicamp, 2006).

Agência FAPESP – Professor Castilho, como surgiu o Projeto Caipira?
Ataliba Teixeira de Castilho – O projeto de pesquisa teve origem em 1998, durante o primeiro seminário que fizemos sobre o tema. Participaram professores brasileiros especializados em linguística histórica. Pensei em convidá-los para o projeto de modo que eles pudessem transformar aquele projeto estadual em nacional. E deu certo.

Agência FAPESP – E por que fazer esse projeto em São Paulo?
Castilho – Porque a língua portuguesa começou a ser implantada em 1532, em São Vicente, aqui no Estado de São Paulo. Foi o primeiro povoamento, quando os portugueses decidiram explorar de fato o território. Isso não ocorreu quando Pedro Álvares Cabral chegou à Bahia e partiu em seguida para as Índias. Durante 32 anos o território descoberto não foi colonizado ou ocupado. Foi em 1532, em São Vicente, que o Brasil realmente começou.

Agência FAPESP – Então, foi a partir do Estado de São Paulo que ocorreu a penetração da língua portuguesa pelo país?
Castilho – Sim, foi onde tudo começou. Depois de São Vicente vieram Santo André, São Paulo e Santana do Parnaíba. Foi por essas quatro cidades que começou a penetração do português no Brasil – com exceção do então Norte (Grão Pará e Estado do Maranhão), que era praticamente outro país e onde a colonização começou entre os séculos 17 e 18. Devido à proximidade do rio Tietê, o movimento do bandeirismo partiu de Santana do Parnaíba e começou a expansão da língua para o Mato Grosso. De Santana do Parnaíba, os bandeirantes também foram até o Peru, atrás das minas de prata, percorrendo um caminho construído pelos índios Peabirus. Como lá a colonização foi espanhola, o português não se implantou. De São Miguel Paulista, os bandeirantes levaram o português para Minas Gerais, subindo por Itaquaquecetuba e Taubaté, atrás do ouro.

Agência FAPESP – A partir do Estado de São Paulo ocorreu a penetração da língua portuguesa pelo país por esses caminhos?
Castilho – Sim, mas no fim do século 18 surgiu um terceiro caminho: o dos comerciantes que andavam com mulas. Esses tropeiros levaram o português até o Uruguai, que no tempo do império era uma província brasileira, a Cisplatina. Chegaram à Colônia do Sacramento, cidade uruguaia criada por tropeiros de Sorocaba. Tudo isso foi movimento dos paulistas. Quando São Paulo se desenvolveu mais do que todas as outras, tornou-se a maior capitania do Brasil, que inclui o que hoje são estados independentes. O termo capitania foi substituído por província e depois por estado. Então, pode-se ver que ao estudar que língua portuguesa chegou aqui e como ela se desenvolveu e mudou, conhecemos a própria história do português brasileiro.

Agência FAPESP – Uma dimensão que está espelhada no número de pesquisadores reunidos pelo projeto coordenado pelo senhor.
Castilho – Tem que ser assim, é preciso reunir muitos especialistas. Só no Estado de São Paulo somos em 60 pesquisadores, das três universidades públicas e também da Universidade Presbiteriana Mackenzie. Esse grupo maior também fez uma espécie de bandeirismo (risos). Hoje, o Projeto de História do Português Brasileiro (PHPB) tem cerca de 200 pesquisadores integrados em 11 equipes regionais, cada uma trabalhando com questões locais.

Agência FAPESP – Em todo o Brasil?
Castilho – Não, pois ainda não temos ninguém no Norte. Mas queremos ter colaboradores nessa região.

Agência FAPESP – Poderia dar alguns exemplos de contribuições do projeto para o conhecimento da história do português brasileiro?
Castilho – Esse projeto trata do conhecimento de como o português se implantou e de como ele mudou. A grande pergunta, como diz um colega nosso, é: “Que língua foi aquela que saiu das caravelas?”. Sabemos hoje que foi o português médio, um momento da história do português europeu. E aqueles navegadores que saíram das caravelas quando crianças aprenderam a falar essa modalidade, o português arcaico médio, que vai de 1450 até 1530. Essa é justamente a base do nosso português. Temos um grupo em nosso projeto que estuda como foi esse português médio para poder descrevê-lo. Nesse grupo está minha mulher, Célia Maria Moraes de Castilho, que também é linguista e leu o que se publicou dos inventários e testamentos, do século 16 até 1920, que estão guardados no Arquivo Público do Estado de São Paulo. Para entender como se deu o espalhamento desse português a partir de São Paulo, outro grupo, coordenado pelo professor Manoel Morivaldo Santiago Almeida, da USP, estudou como foi o deslocamento da língua pelo Tietê, levado pelos bandeirantes. Esse grupo verificou, por exemplo, que no Mato Grosso se guarda até hoje pronúncias do português médio arcaico. Em vez de dizer chão, eles dizem “tchon”. Palavras com “ch” são ditas com “tch”, e “x” é dito “xê”. Então temos “tchapéu” ou “tchuva”. Eles não têm o ditongo nasal “ão”, e sim a vogal nasal “on”, como era no português antigo. Estou falando de fonética, mas há também outras características gramaticais que se conservaram lá.

Agência FAPESP – E isso até na capital, Cuiabá?
Castilho – Sim. E é no meio familiar que você surpreende isso, essas pronúncias todas do português de antes.

Agência FAPESP – Como se desenvolveram aqui em São Paulo o português popular e o português culto?
Castilho – A professora Ângela Cecília Souza Rodrigues, da USP, é a responsável pelo projeto sobre o português não padrão, que é o dos analfabetos e de pessoas que aprendem em casa. O objetivo é documentar e achar nos documentos traços desse português popular.

Agência FAPESP – Ela já obteve resultados?
Castilho – Ela começou de trás para frente, descreveu primeiro o que tem hoje no português popular. Não é só paulista que fala o português popular, pois o estado atraiu gente de todos os lados. A professora Ângela encontrou nos primeiros documentos de traços linguísticos a questão da concordância. Ela observou que muito da concordância que hoje se considera padrão popular era usada pelos portugueses naquele tempo, como em “os menino chegou”, por exemplo. Isso não foi uma criação daqui não, estava lá. Outro grupo de pesquisa estuda a formação do padrão culto, a história do português ensinado nas escolas. As professoras Marilza de Oliveira (USP) e Maria Célia Lima-Hernandes (USP) estudam esse ponto, de como se formou o português culto em São Paulo.

Agência FAPESP – O que elas descobriram?
Castilho – O que se descobriu é que até algum tempo atrás o português culto era idêntico ao português europeu, mesmo aqui em São Paulo. Só se começou a falar o português culto bem tardiamente. No começo era um povão, indistinto, que falava o português popular. Foi preciso surgir escolas para que aparecesse essa outra variedade. Aqui em São Paulo foi muito importante a fundação da Faculdade de Direito, em 1827, que trouxe gente do Brasil inteiro. Na mesma época, começou a haver um interesse maior em ler jornais, escrever e ler poesias, romances. Era o Romantismo. Pois esse grupo de pesquisa analisa esses documentos e observa que reação as pessoas que vinham para cá tinham em relação à língua falada aqui, que era o caipira.

Agência FAPESP – E como se desenvolveu o português culto?
Castilho – Do início do século 19 até a instituição da USP, em 1934, foram criadas várias escolas isoladas, pois não havia a concepção de universidade como existe hoje. No século 19, o português culto era imitação exata do português culto europeu. Em 1922, com o movimento modernista e o crescimento da comunidade de São Paulo, não se considerava mais que o português culto era o português dos portugueses, nós nos descolamos disso. Ainda em 1920, 1930, tínhamos certa sensação de nação colonizada. Quando isso passou é que nos desgarramos do português escrito culto europeu. E aí os modernistas tiveram um papel muito importante, sobretudo Mário de Andrade. Ele criou biblioteca, departamento de cultura, fundou a revista do Arquivo Municipal. Houve uma grande agitação cultural e as pessoas foram assumindo com mais naturalidade a forma como elas escreviam.

Agência FAPESP – Hoje, a característica caipira é muitas vezes encarada de forma depreciativa. Naquela época ocorria a mesma coisa?
Castilho – Caipira não era uma palavra depreciativa, era a designação do português falado pelos paulistas. Depois, com o desenvolvimento da cidade de São Paulo como centro cultural, aí sim ficou muito assemelhado ao português popular, de pessoas sem escolaridade. E como a cidade cresceu demais, esse português foi empurrado para o interior do estado e ali ficou.

Agência FAPESP – Em uma entrevista, o senhor fala sobre o uso da internet pelas crianças e diz que elas passaram a escrever mais, o que seria positivo. Mas, ao mesmo tempo, a rede não incentiva a grafia errada?
Castilho – Sim, as crianças passaram a escrever mais e, sobretudo, não por que o professor manda. Para nós, linguistas, essa questão do escrever errado ocorre quando uma pessoa escreve e a outra não consegue entender. No mais, é uma variedade que você está jogando. O que é escrever errado? É o português não culto? A internet não atrapalha, ela ajuda e resolve um problema de ortografia, no caso de uso de abreviações, como é tudo abreviado. A ortografia é convenção, ela vai atrás da língua com o seu dinamismo. Eu vejo muito o lado positivo. Como linguistas nos perguntamos o tempo todo como é que a mente humana conseguiu criar essa variedade louca de expressões, essa enorme complexidade. Essa é a nossa grande questão.

 

>Ciência precisa avançar para embasar política climática (AIT, JC)

>
JC e-mail 4236, de 12 de Abril de 2011

Os investimentos em pesquisa sobre mudanças climáticas nos últimos anos possibilitaram que o País fosse um dos primeiros a estabelecer metas de redução de emissões de gases de efeito estufa (GEE).

Agora, a ciência brasileira precisa avançar mais para subsidiar as políticas públicas de adaptação da sociedade e dos setores econômicos às mudanças do clima.

Redução de emissões – A avaliação foi feita pelo secretário de Políticas e Programas de Pesquisa e Desenvolvimento do Ministério da Ciência e Tecnologia (MCT), Carlos Nobre, na abertura da 4ª Conferência Regional sobre Mudanças Globais: O plano brasileiro para o futuro sustentável, realizada no Memorial da América Latina, em São Paulo (SP).

Em função desses investimentos governamentais em pesquisa, de acordo com Nobre, foi possível o Brasil se tornar o primeiro País em desenvolvimento a fixar metas de redução de emissões de GEE entre 36% a 39% até 2020, conforme estabelecido pelo Plano Nacional de Mudanças Climáticas, sancionado no fim de 2009.
“Essa foi uma área em que avançamos mais, com o estabelecimento de metas setoriais de redução de emissões. A mais significativa, obviamente, é a redução de 80% no índice de desmatamento da Amazônia, em que o Brasil tem conseguido obter avanços notáveis nos últimos seis anos. Mas um desafio ainda maior será reduzir em pelo menos 40% o desmatamento no Cerrado, que é atualmente a maior fronteira agrícola brasileira”, disse.

Medidas de adaptação às mudanças climáticas – Ainda que as emissões de GEE sejam reduzidas rapidamente, a temperatura do planeta ainda continuará subindo nos próximos séculos. Por conta disso, o próximo passo que deve ser dado é desenvolver medidas de adaptação que permitam que a sociedade e os setores econômicos se tornem mais resilientes às mudanças do clima, assinalou o cientista.

Uma das iniciativas recentes do Brasil nesse sentido é a criação do Sistema Nacional de Monitoramento e Alerta de Desastres Naturais, coordenado por Nobre. O sistema contará com centros estaduais e regionais de monitoramento e alerta de desastres naturais, além de um nacional, que deve ser inaugurado até o fim do ano para funcionar nas próximas chuvas de verão.

“Essa é uma medida concreta de adaptação aos eventos climáticos que devíamos ao País e que finalmente será tirado do papel e se tornará uma realidade”, afirmou. De acordo com Nobre, a adaptação às mudanças climáticas também é uma das metas do segundo Plano de Ação em Ciência, Tecnologia e Inovação (Pacti), em elaboração pelo governo federal.

O plano estabelecerá grandes metas que o País almeja atingir em ciência, tecnologia e inovação no período de 2012 a 2015. Entre elas estão fazer com que o País tenha autonomia na geração de cenários climáticos futuros, especialmente em projeções de extremos climáticos em escala regional, que possam apoiar os planos regionais e setoriais de adaptação às mudanças climáticas, como os da agricultura.

“É fundamental adaptar a agricultura às mudanças climáticas para a segurança alimentar não só do País, mas também do mundo. O Brasil já é o segundo maior exportador de commodities agrícolas e, em menos de 10 anos, possivelmente se tornará o primeiro”, apontou Nobre.

Protagonista sem liderança – Na opinião de cientistas que participaram da abertura do evento, o Brasil assumiu o protagonismo nas discussões sobre redução das emissões de gases de efeito estufa. Mas, para o professor de relações internacionais da Universidade de Brasília (UnB), Eduardo José Viola, a capacidade de liderança do País nas negociações climáticas é limitada.

“O Brasil poderá assumir uma posição mais ativa nas negociações climáticas devido à sincronização das ações entre o MCT e o Ministério do Meio Ambiente. Mas o País é uma potência climática média. As grandes potências climáticas que podem solucionar o problema são os Estados Unidos, União Europeia e China, que, juntas, são responsáveis por 60% das emissões globais”, disse Viola.

Para Guy Pierre Brasseur, do National Center for Atmospheric Center (Ncar), dos Estados Unidos, a decisão sobre reduzir as emissões globais de GEE não é um problema científico, mas uma escolha política. E uma das maneiras de se conseguir fazer com que os líderes dos países assumam esse compromisso seria por meio da pressão popular. “Os resultados das negociações climáticas têm sido uma catástrofe, e os avanços foram muito limitados. Temos que pensar em como melhorar a comunicação da ciência sobre os impactos das mudanças climáticas porque a decisão dos países em reduzir suas emissões só será possível por meio da pressão exercida por seus cidadãos”, afirmou.
(Agência Inovação Tecnológica)

>Futuro da previsão do clima no Brasil em xeque (JC, Globo)

>
JC e-mail 4232, de 05 de Abril de 2011.

Escassez de meteorologistas coloca em risco a previsão e a prevenção de catástrofes.

A falta de profissionais qualificados que façam previsões meteorológicas e se dediquem à parte operacional da meteorologia preocupa especialistas da área. Na 4ª Conferência Regional sobre Mudanças Globais, iniciada ontem em São Paulo, o pesquisador do Instituto Nacional de Pesquisas Espaciais (Inpe) José Antonio Marengo disse que o Brasil tem muitos profissionais que se dedicam à pesquisa acadêmica, mas faltam especialistas para fazer a leitura dos dados e mapas.

Segundo ele, por enquanto, isso não prejudica as previsões meteorológicas no país, mas em cinco anos este déficit pode causar transtornos.

– Necessitamos de pessoas mais novas, jovens. Temos poucos profissionais que se dedicam à fazer a previsão e mapas. As pessoas estão se aposentando e outras preferem trabalhar na parte acadêmica – disse.

Para ele, a parte operacional da meteorologia não atrai muitos profissionais porque eles consideram o trabalho pouco interessante e instigante:

– É uma parte chata, como um médico que trabalha no pronto-socorro e um que trabalha no Albert Einstein. Já o físico da Universidade de São Paulo e integrante do Painel
Brasileiro de Mudanças Climáticas Paulo Artaxo Netto se preocupa com o fato de o país ainda não estar preparado para fazer melhores previsões de enchentes e secas para minimizar os impactos de desastres naturais:

– Os modelos climáticos feitos no Brasil não necessariamente atendem as necessidades das defesas civis. Não adianta dizer que no estado de São Paulo vai chover 200 milímetros. Isso vai acontecer em Araraquara ou em Santos? Precisamos ter uma alta resolução espacial e previsões com horas de antecedência.

Os especialistas estão confiantes na entrada em funcionamento e eficácia do Sistema Nacional de Monitoramento e Alerta de Desastres Naturais, elaborado pelo Ministério da Ciência e Tecnologia e que deve começar a operar até o fim do ano. Mas o climatologista Carlos Nobre, secretário de Políticas e Programas de Pesquisa e Desenvolvimento do MCT, admitiu que isso ainda é um desafio.

– Temos que diminuir o número de vítimas nas catástrofes por meio da ciência – disse.
(O Globo)

>Teia neural da esquizofrenia (FAPESP)

>
14/4/2011

Revista Pesquisa FAPESP – Pesquisadores norte-americanos deram um passo importante para identificar as causas biológicas da esquizofrenia, conjunto de transtornos mentais graves que atingem cerca de 60 milhões de pessoas no mundo – por volta de 1,8 milhão no Brasil – e se caracterizam por distanciamento emocional da realidade, pensamento desordenado, crenças falsas (delírios) e ilusões (alucinações) visuais ou auditivas.

Alguns desses sinais são semelhantes aos apresentados pelo jovem Wellington Menezes de Oliveira, de 23 anos, que no início de abril matou 12 crianças em uma escola no bairro do Realengo, no Rio de Janeiro, antes de se suicidar.

A equipe coordenada pelo neurocientista Fred Gage, do Instituto Salk de Estudos Biológicos, na Califórnia, conseguiu transformar células da pele de pessoas com esquizofrenia em células mais imaturas e versáteis. Chamadas de células-tronco de pluripotência induzida (iPS, na sigla em inglês), essas células foram depois convertidas em neurônios, uma das variedades de células do tecido cerebral. O estudo foi publicado nesta quinta-feira no site da revista Nature.

Essa mudança forçada de função gerou o que os pesquisadores acreditam ser cópias fiéis, ao menos do ponto de vista genético, das células do cérebro de quem tem esquizofrenia, que, por óbvios motivos éticos, antes só podiam ser analisadas depois da morte.

Como são geneticamente idênticos às células cerebrais de quem desenvolveu esquizofrenia, esses neurônios fabricados em laboratório são importantes para compreender a enfermidade, que tem importante componente genético, porque permite aos pesquisadores desprezar a influência de fatores ambientais, como o uso de medicamentos ou o contexto social em que as pessoas vivem.

“Não se sabe quanto o ambiente contribui para a doença. Mas, ao fazer esses neurônios crescerem em laboratório, podemos eliminar o ambiente da equação e começar a focar nos problemas biológicos”, disse Kristen Brennand, pesquisadora do grupo de Gage e primeira autora do artigo.

Segundo Gage, é a primeira vez que se consegue criar, a partir de células de seres humanos vivos, um modelo experimental de uma doença mental complexa.

“Esse modelo não apenas nos dá a oportunidade de olhar para neurônios vivos de pacientes com esquizofrenia e de pessoas saudáveis, como também deve permitir entender melhor os mecanismos da doença e avaliar medicamentos que podem revertê-la”, disse o cientista que há alguns anos demonstrou que o cérebro adulto continua a produzir neurônios.

Depois de converter em laboratório células da pele em neurônios, Brennand realizou testes para verificar se eles se comportavam de fato como os neurônios originais e eram capazes de transmitir informação de uma célula a outra. As células cerebrais obtidas a partir de células da pele (fibroblastos) funcionavam, sim, como neurônios. “Em vários sentidos, os neurônios ‘esquizofrênicos’ são indistintos dos saudáveis”, disse.

Mas há diferenças. A pesquisadora notou que os novos neurônios de quem tinha esquizofrenia apresentavam menos ramificações do que os das pessoas saudáveis. Essas ramificações são importantes porque permitem a comunicação de uma célula cerebral com outra – e geralmente são encontradas em menor número em estudos feitos com modelo animal da doença e em análises de neurônios extraídos após a morte de pacientes com esquizofrenia.

Nos neurônios dos esquizofrênicos, a atividade genética diferiu daquela observada nas pessoas sem a doença. Os autores do estudo viram que o nível de ativação de 596 genes era desigual nos dois grupos: 271 genes eram mais ativos nas pessoas com esquizofrenia – e 325 menos expressos – do que nas pessoas sem o problema.

Em um estágio seguinte, Brennand deixou os fibroblastos convertidos em neurônios em cinco soluções diferentes, cada uma contendo um dos cinco medicamentos mais usados para tratar esquizofrenia – os antipsicóticos clozapina, loxapina, olanzapina, risperidona e tioridazina.

Dos cinco, apenas a loxapina foi capaz de reverter o efeito da ativação anormal dos genes e permitir o crescimento de mais ramificações nos neurônios. Esses resultados, porém, não indicam que os outros quatro compostos não sejam eficientes. “A otimização da concentração e do tempo de administração pode aumentar os efeitos das outras medicações antipsicóticas”, escreveram os pesquisadores.

“Esses medicamentos estão fazendo mais do que achávamos que fossem capazes de fazer. Pela primeira vez temos um modelo que permite estudar como os antipsicóticos agem em neurônios vivos e geneticamente idênticos aos de paciente”, disse a pesquisadora. Isso é importante porque torna possível comparar os sinais da evolução clínica da doença com os efeitos farmacológicos.

“Por muito tempo as doenças mentais foram vistas como um problema social ou ambiental, e as pessoas achavam que os pacientes poderiam superá-las caso se esforçassem. Estamos mostrando que algumas disfunções biológicas reais nos neurônios são independentes do ambiente”, disse Gage.

O artigo Modelling schizophrenia using human induced pluripotent stem cells (doi:10.1038/nature09915), de Fred Gage e outros, pode ser lido por assinantes da Nature em http://www.nature.com.

Imprensa versus governo (Fapesp)


Imprensa versus governo
Rede da Democracia, formada por três grandes jornais, teve papel na queda de Jango
Carla Rodrigues
Edição Impressa 181 – Março 2011

© AGÊNCIA ESTADO
Tropas no comício da Central do Brasil

No jargão da imprensa escrita, “retranca” é a classificação do assunto contido em uma página, editoria ou em um conjunto de textos jornalísticos. Sob a retranca “Na Rede da Democracia”, entre outubro de 1963 e março de 1964, os três mais importantes jornais do país – O Jornal, dos Diários Associados, Jornal do Brasil, da família Nascimento Brito, e O Globo, da família Marinho – se uniram em torno de uma pauta em comum: a defesa do nacionalismo contra o comunismo, a crítica à ineficiência do Congresso, a falta de legitimidade do presidente João Goulart, o perigo de o governo ceder às pressões das manifestações de massa e dos movimentos populares. Diariamente publicada nos três diários e veiculada à noite nas suas respectivas emissoras de rádio, a Rede da Democracia ajudou a enfraquecer e derrubar o governo de Jango, deposto pelos militares que tomaram o poder em 1964.

Os acontecimentos políticos posteriores a esse momento da história brasileira têm sido muito registrados e debatidos. Mas sobre o consórcio formalizado pelos jornais sob a denominação de Rede da Democracia pouco se estudou. Foi nesse vazio que trabalhou o historiador Aloysio Castelo de Carvalho em sua pesquisa de pós-doutorado em história social na Universidade de São Paulo (USP), cujo resultado está sendo lançado no livro A Rede da Democracia: O Globo, O Jornal e Jornal do Brasil na queda do governo Goulart (1961-1964), coedição entre a NitPress e a Editora da UFF (Universidade Federal Fluminense), onde Carvalho também é professor.

“A Rede da Democracia está incluída num debate sobre a relação entre os jornais e o governo de João Goulart”, diz o pesquisador. Relação que evoluiu de maneira peculiar: em agosto de 1961, quando Jânio Quadros renunciou, os três jornais defenderam uma posição antigolpe, afirmando a legalidade da posse do vice João Goulart. Dois anos depois, a Rede da Democracia cerrava fileiras contra o presidente.

Em 1961 coube ao então governador do Rio Grande do Sul, Leonel Brizola, montar a chamada Rede da Legalidade, que transmitia, a partir do porão do Palácio Piratini, discursos do aliado de Jango reproduzidos em ondas curtas por dezenas de emissoras do interior e de outros estados. O modelo de resistência brizolista inspiraria, anos depois, o empresário Assis Chateaubriand, dono dos Diários Associados. As rádios Tupi, Globo e Jornal do Brasil passaram a transmitir em conjunto, a partir de 1963, pronunciamentos que no dia seguinte eram publicados nos jornais com a mesma retranca. Alguns títulos ilustram o conteúdo editorial da Rede: “União Nacional dos Estudantes é um antro de delinquentes políticos”, “O dispositivo chamado sindical é na realidade dispositivo comunista”, “Dias graves se aproximam se não for repelida a invasão marxista”, “Ministério do Trabalho comanda as greves que agitam nosso país”, “Nosso país não está só ameaçado, mas comprometido com o comunismo” são exemplos da tomada de posição da imprensa diante do governo de Jango. Entre os signatários estavam parlamentares da oposição e  donos de jornais que, na visão de Carvalho, se arvoraram na pretensão de se tornarem atores políticos.

© AGÊNCIA ESTADO
Tanques do Exército no Rio no dia do golpe militar

Padrão – Foi em busca de compreender qual foi o papel da imprensa na queda de Jango e na emergência do governo militar que Carvalho acabou encontrando um padrão discursivo formado por quatro principais eixos: uma concepção valorativa da própria imprensa, que se atribui o papel de porta-voz da opinião pública; o temor de que o ingresso das massas no sistema político seria um risco para o país; a falta de confiança no presidente da República quando ele conta com apoio popular; a falta de confiança nas instituições políticas, inclusive no Congresso e no Senado, contribuindo para reforçar a percepção do papel da imprensa como fiscal dessas mesmas instituições e afirmando a importância da liberdade de imprensa.

No período Jango, os três jornais unificados sob a Rede da Democracia viam a sociedade brasileira como uma emergente sociedade de massas, mas resistiam ao ingresso dessa massa na participação política, que passou a se dar pela via dos movimentos sociais e das manifestações populares. “Os jornais reagiram de forma conservadora, afirmando que a única participação política legítima era pelas formas institucionais”, lembra Carvalho.
No entanto, essas formas institucionais estavam fechadas à massa de trabalhadores que, no processo de urbanização e industrialização, chegava à vida política. O voto não era permitido aos analfabetos, por exemplo, e em 1963 metade da população brasileira não sabia ler nem escrever. Daí a grande importância da Rede da Democracia em veicular suas ideias no rádio, a fim de ganhar adesões também entre as massas como parte de um processo que, para Carvalho, faz parte da competição da imprensa para representar a opinião pública. “É uma visão publicista de opinião pública, que desvaloriza a expressão pela via do voto ou das instituições”, explica o professor.

Embora reconheça que há períodos muito negativos, Eugênio Bucci, professor de jornalismo da Escola Superior de Propaganda e Marketing (ESPM), considera que generalizações sobre a relação entre governo e imprensa enfrentam dois problemas: o primeiro, a dificuldade de caracterizar a imprensa como uma entidade de condutas unificadas. Há, lembra ele, pluralidade e diversidade. Que poderia ser maior, reconhece, mas que já avançou muito em relação aos anos 1960. No cenário atual, não apenas jornais, mas rádios, TVs, sites de internet formam um mosaico de veículos de comunicação com expressão de pontos de vista muito distintos entre si.

“Apesar do comportamento de certos veículos da chamada grande imprensa, há mais diversidade, mais pluralidade. Sobrevive entre nós uma mentalidade que tem repercussão na imprensa e rejeita tudo aquilo que emerge do povo iletrado, essa mistura de raça e cor considerada ruim”, argumenta Bucci. Para ele, é preciso ter muito cuidado para não cair num modelo linear, segundo o qual se pode classificar a imprensa de boa ou ruim.

Lua de mel – O que leva Bucci a discutir o segundo problema: como se tem visto no noticiário após a posse da presidente Dilma Rousseff, há períodos de verdadeira lua de mel entre jornais e governo. Foi assim, por exemplo, no início do primeiro mandato de Lula, lembra Bucci. Segundo ele, o tratamento que o governo Lula recebeu varia muito entre os períodos e entre os veículos. “A TV Record, por exemplo, compete com a TV Globo na cobertura crítica do governo”, exemplifica, lembrando que blogs e sites, como o IG, exercem papel importante em contrapontos ao discurso dos grandes jornais e também formam opinião.

© FOLHAPRESS
Goulart fala com multidão na Central do Brasil

O fato de a internet ainda não ser uma mídia de massa faz com que o cientista político Paulo Baía, professor da Universidade Estadual do Rio de Janeiro (UFRJ), discorde da capacidade desses novos meios de comunicação de democratizar a informação e se constituir numa via alternativa à grande imprensa. Para ele, o mecanismo fundamental que mantém a relação umbilical entre poder e imprensa é a lei das concessões de rádio e TV. Por isso, acredita que a única forma de alterar o que chama de “relação bilateral” entre Estado e meios de comunicação é uma revisão na lei das concessões. “É preciso assegurar que qualquer grupo social possa se expressar com autonomia”, defende Baía.

A autonomia da imprensa sempre esteve em debate em tempos de crise. Foi assim nos anos 1960, quando a Rede da Democracia pregava seu direito à liberdade de imprensa como forma de garantir a expressão de um determinado ponto de vista em relação ao governo Jango e compartilhado pelos três jornais que integravam o consórcio. O debate sobre liberdade de imprensa esteve novamente em pauta durante os dois mandatos do governo Lula, e com ele veio a discussão sobre mecanismos de controle social da informação. “A liberdade de imprensa é um eixo discursivo dos jornais quando eles querem se valorizar como único canal de expressão da opinião pública”, alega Carvalho. “Lula é um produto da liberdade de imprensa”, contrapõe Bucci, lembrando que foi a abertura política e, com ela, o fim da censura à imprensa que permitiram o contato entre o Partido dos Trabalhadores e o eleitorado.

Carvalho conclui que, quando se sentem ameaçados, os jornais formam alianças formais, como a Rede da Democracia, para fazer ecoar o discurso liberal e conservador. “Vai chegar o momento em que a imprensa será objeto de crítica das outras instituições. E os jornais não poderão mais ser irresponsáveis e manipuladores”, aposta Carvalho.

 

 

Literatura da fome: projeto promove encontro inusitado (Faperj)

Danielle Kiffer

Para Ana Paula, Glauber Rocha tem estilo similar ao de Artaud, por vincular a escrita ao traço pictórico e reinventar a gramática.

Você tem fome de quê?”. A música Comida, da banda Titãs, já colocava há algum tempo o questionamento sobre as inúmeras fomes que sentimos, que vão desde o desejo de consumir arte à necessidade da própria comida. Porém, é a abordagem do sentido literal da palavra que dá forma a um encontro que parecia improvável: entre os escritores brasileiros Josué de Castro e Graciliano Ramos, o cineasta Glauber Rocha e o poeta, ator e diretor teatral francês Antonin Artaud. O projeto “O corpo extremo: da escrita limite ao limite da escrita”, desenvolvido pela professora Ana Paula Veiga Kiffer, da Pontifícia Universidade Católica (PUC-Rio), analisa a questão da fome e da loucura de Antonin Artaud, usando como referência a fundamentação crítica e teórica dos três autores brasileiros.

Para a professora, que é Jovem Cientista do Nosso Estado, da FAPERJ, poucas semelhanças unem os quatro escritores, além do foco no tema que os reúne. “Todos retrataram a fome, mas de maneiras diversas. Em termos de estilo, acredito que Glauber Rocha é o que mais se aproxima de Artaud, pois ambos extrapolam a escrita e a vinculam ao traço pictórico, reinventando a gramática em suas obras, o que mostra a necessidade de criar um modo de dizer o que sentiam que ia além das palavras”, detalha. Dos quatro pensadores, por exemplo, o único que realmente vivenciou a fome foi o poeta francês, como explica Ana Paula: “Apesar de vir de uma família com boas condições financeiras, Artaud experimentou a pobreza e a fome em diferentes fases da vida. Ele viveu a decadência e a carência material do período entre a primeira e a segunda guerras mundiais na Europa e durante sua internação em instituições psiquiátricas, onde a alimentação era escassa. Durante a Segunda Guerra, época de sua internação, a fome foi utilizada como forma de extermínio nessas instituições.”

Com o romance Homens e Caranguejos, Josué de Castro foi inspiração para o
movimento conhecido como mangue beat.

Uma das primeiras teorias de Artaud que tem relação com a fome é o manifesto Teatro da Crueldade, de 1934. Nele, o autor clama por um teatro e uma cultura cujas forças vivas fossem idênticas às da fome. Ainda nos anos 1930, ele escreveu o poema intitulado A fome não espera, em que denuncia a decadência político-econômica da Europa da época. No poema, Artaud incita o leitor a transformar sua fome em seu próprio tesouro. Como destaca Ana Paula, há, no texto, uma grande semelhança com a Estétyka da Fome, de Glauber Rocha, na qual ele também nos desafia a fazer da nossa precariedade a nossa força. “Artaud é um autor radical como Glauber também é radical. O discurso de ambos não tem nada de vitimização, muito pelo contrário. É, sim, transformador, um estímulo à potência, à afirmação de uma diferença e às características que o povo brasileiro possui. Muitas vezes, de onde muito pouco se espera, há grandes movimentos de superação. Um exemplo que podemos citar, aqui mesmo no Rio de Janeiro, é o caso da Coopa-Roca, uma cooperativa de mulheres da favela da Rocinha, que fez do fuxico sua arte, sua forma de sobrevivência. E tudo com muito sucesso.”

Apesar de não ser mais um assunto discutido na intelectualidade, a literatura sobre a fome, no Brasil, gerou frutos que rendem até hoje. Um grande exemplo vem do escritor e médico Josué de Castro. Uma de suas principais obras e seu único romance, Homens e Caranguejos, publicado em 1967, influenciou, quase trinta anos mais tarde, a formulação do movimento musical mangue beat, liderado por Chico Science e Fred Zero Quatro, na década de 1990,  em Recife. Se Josué de Castro compara os homens, catadores de caranguejo, aos próprios crustáceos, ambos famintos e mergulhados na lama, Chico Science fala do mangue e sua sociedade marginal de homens-caranguejo, juntando na mesma panela musical, funk, hip hop e influências regionais.

Durante suas pesquisas em obras literárias, Ana Paula observou que a relação entre a loucura e a fome é estreita. Em Vidas Secas, de Graciliano Ramos, por exemplo, os personagens centrais da trama que se passa no sertão nordestino brasileiro, sentem tanta fome que passam a delirar. “Pode-se dizer que a fome leva à loucura e a loucura pode levar a um tal estado de abandono e indigência, em que a fome certamente estará presente. Estas duas características estão muito próximas.”

Também a experiência do francês Artaud, durante o período em que ficou internado, tanto no asilo de Rodez quanto em Ivry-Sur-Seine, na França, foi registrada, de forma original e única, em cadernos escolares. “Nestes cadernos, podemos perceber a materialização da fome vivida, que transforma essa experiência em um discurso que traz um novo modo de dizer, que parece tratar a linguagem como algo concreto e material.” Para Ana Paula, a discussão sobre a fome deve ser retomada sob outro ângulo, encarando-a e a outros problemas da nossa sociedade, mas substituindo a vitimização pela superação.

>A dor da rejeição (Fapesp)

>
Divulgação Científica
29/3/2011

Estudo indica que o sentimento de rejeição após o fim de um relacionamento amoroso e a dor física ao se machucar ativam as mesmas regiões no cérebro (reprodução)

Agência FAPESP – A dor da rejeição não é apenas uma figura de expressão ou de linguagem, mas algo tão real como a dor física. Segundo uma nova pesquisa, experiências intensas de rejeição social ativam as mesmas áreas no cérebro que atuam na resposta a experiências sensoriais dolorosas.

“Os resultados dão novo sentido à ideia de que a rejeição social ‘machuca’”, disse Ethan Kross, da Universidade de Michigan, que coordenou a pesquisa.

Os resultados do estudo serão publicados esta semana no site e em breve na edição impressa da revista Proceedings of the National Academy of Sciences.

“A princípio, derramar uma xícara de café quente em você mesmo ou pensar em uma pessoa com quem experimentou recentemente um rompimento inesperado parece que provocam tipos diferentes de dor, mas nosso estudo mostra que são mais semelhantes do que se pensava”, disse Kross.

Estudos anteriores indicaram que as mesmas regiões no cérebro apoiam os sentimentos emocionalmente estressantes que acompanham a experiência tando da dor física como da rejeição social.

A nova pesquisa destaca que há uma interrelação neural entre esses dois tipos de experiências em áreas do cérebro, uma parte em comum que se torna ativa quando uma pessoa experimenta sensações dolorosas, físicas ou não. Kross e colegas identificaram essas regiões: o córtex somatossensorial e a ínsula dorsal posterior.

Participaram do estudo 40 voluntários que haviam passado por um fim inesperado de relacionamento amoroso nos últimos seis meses e que disseram se sentir rejeitados por causa do ocorrido.

Cada participante completou duas tarefas, uma relacionada à sensação de rejeição e outra com respostas à dor física, enquanto tinham seus cérebros examinados por ressonância magnética funcional.

“Verificamos que fortes sensações induzidas de rejeição social ativam as mesmas regiões cerebrais envolvidas com a sensação de dor física, áreas que são raramente ativadas em estudos de neuroimagens de emoções”, disse Kross.

O artigo Social rejection shares somatosensory representations with physical pain (doi/10.1073/pnas.1102693108), de Ethan Kross e outros, poderá ser lido em breve por assinantes da PNAS em http://www.pnas.org/cgi/doi/10.1073/pnas.1102693108.

Religion may become extinct in nine nations, study says (BBC)

2 March 2011 Last updated at 07:31 GMT

By Jason PalmerScience and technology reporter, BBC News, Dallas

A study using census data from nine countries shows that religion there is set for extinction, say researchers.

The study found a steady rise in those claiming no religious affiliation.

The team’s mathematical model attempts to account for the interplay between the number of religious respondents and the social motives behind being one.

The result, reported at the American Physical Society meeting in Dallas, US, indicates that religion will all but die out altogether in those countries.

The team took census data stretching back as far as a century from countries in which the census queried religious affiliation: Australia, Austria, Canada, the Czech Republic, Finland, Ireland, the Netherlands, New Zealand and Switzerland.

Their means of analysing the data invokes what is known as nonlinear dynamics – a mathematical approach that has been used to explain a wide range of physical phenomena in which a number of factors play a part.

One of the team, Daniel Abrams of Northwestern University, put forth a similar model in 2003 to put a numerical basis behind the decline of lesser-spoken world languages.

At its heart is the competition between speakers of different languages, and the “utility” of speaking one instead of another.

“The idea is pretty simple,” said Richard Wiener of the Research Corporation for Science Advancement, and the University of Arizona.

“It posits that social groups that have more members are going to be more attractive to join, and it posits that social groups have a social status or utility.

“For example in languages, there can be greater utility or status in speaking Spanish instead of [the dying language] Quechuan in Peru, and similarly there’s some kind of status or utility in being a member of a religion or not.”

Dr Wiener continued: “In a large number of modern secular democracies, there’s been a trend that folk are identifying themselves as non-affiliated with religion; in the Netherlands the number was 40%, and the highest we saw was in the Czech Republic, where the number was 60%.”

The team then applied their nonlinear dynamics model, adjusting parameters for the relative social and utilitarian merits of membership of the “non-religious” category.

They found, in a study published online, that those parameters were similar across all the countries studied, suggesting that similar behaviour drives the mathematics in all of them.

And in all the countries, the indications were that religion was headed toward extinction.

However, Dr Wiener told the conference that the team was working to update the model with a “network structure” more representative of the one at work in the world.

“Obviously we don’t really believe this is the network structure of a modern society, where each person is influenced equally by all the other people in society,” he said.

However, he told BBC News that he thought it was “a suggestive result”.

“It’s interesting that a fairly simple model captures the data, and if those simple ideas are correct, it suggests where this might be going.

“Obviously much more complicated things are going on with any one individual, but maybe a lot of that averages out.”

 

21 March 2011 Last updated at 03:59 GMT

Two-thirds of Britons not religious, suggests survey

By John McManusBBC News

Nearly two-thirds of people do not regard themselves as “religious”, a new survey carried out to coincide with the 2011 Census suggests.

The British Humanist Association (BHA), which commissioned the poll, said people often identified themselves as religious for cultural reasons.

The online poll asked 1,900 adults in England and Wales a question which is on this month’s census form.

The Office for National Statistics has defended the wording of the census.

While 61% of the poll’s respondents said they did belong to a religion, 65% of those surveyed answered “no” to the further question: “Are you religious?”

Two surveys were commissioned, one covering England and Wales, and the other for Scotland. The Scottish survey was commissioned by the Humanist Society of Scotland.

South of the border, 61% of respondents said they did have a religion.

But only 29% also said they were religious, while 65% said they were not.

This poll is further evidence… that the data produced by the census, used by local and national government as if it indicates religious belief and belonging, is in fact highly misleading”

Andrew CopsonBritish Humanist Association

Among respondents who identified themselves as Christian, fewer than half said they believed Jesus Christ was a real person who died, came back to life and was the son of God.

Another 27% said they did not believe that at all, while 25% were unsure.

In Scotland, 42% of respondents said they did not belong to a religion, yet in a further question “Are you religious?” 56% answered “no”.

The BHA has complained the wording of the optional census question about religion encourages people to wrongly identify themselves as believers.

In the last census in 2001, 72% of people were classed as Christians – a figure which is much higher than other surveys.

The BHA believes people might tick “yes” to the census question on religion for reasons of cultural identity.

The chief executive of the BHA, Andrew Copson, is running a national campaign encouraging non-religious people to state their unbelief clearly on their census forms.

He said: “This poll is further evidence for a key message of the Census Campaign – that the data produced by the census, used by local and national government as if it indicates religious belief and belonging, is in fact highly misleading.

Religious affiliation

The humanists say data which might indicate a greater amount of religious belief than actually exists, is being used to justify faith schools, and the continuing presence of Anglican bishops in the House of Lords.

The Office for National Statistics has defended the wording of the religion question.

A spokesman told the BBC: “The religion question measures the number of people who self-identify an affiliation with a religion, irrespective of the extent of their religious belief or practice.”

The think tank Theos, which undertakes research into religious matters, says attempting to measure cultural affiliation to religion – rather than actual, regular practice – is a good idea, as it shows the broad values society shares.

It also disputes the BHA’s assertion that the collected data is used for political purposes.

 

Singularidade brasileira (Fapesp)

Especiais

24/3/2011

Por Fábio de CastroAgência FAPESP – O português falado no Brasil tem certas propriedades sintáticas que não se encontram no português europeu, nem em outros idiomas. Durante mais de quatro anos, um grupo de pesquisadores se dedicou a analisar o conhecimento já reunido sobre essas propriedades, a fim de discuti-lo sob a perspectiva do mais novo paradigma da pesquisa linguística: o chamado Programa Minimalista.

Concluído no fim de fevereiro, o Projeto Temático Sintaxe gerativa do português brasileiro na entrada do século 21: Minimalismo e Interfaces, financiado pela FAPESP, foi coordenado por Jairo Nunes, professor da Faculdade de Filosofia, Letras e Ciências Humanas (FFLCH) da Universidade de São Paulo (USP).

De acordo com Nunes, o principal resultado do projeto foi o livro Minimalist Essays on Brazilian Portuguese Syntax (“Ensaios minimalistas sobre a sintaxe do português brasileiro”), lançado em 2009, que reúne dez artigos produzidos por seus participantes.

“O objetivo central do projeto consistiu em capitalizar o conhecimento já adquirido sobre as propriedades sintáticas distintivas do português brasileiro e discuti-lo à luz do Programa Minimalista, descobrindo em que medida essas propriedades podiam ser explicadas na sua interface com outros componentes da gramática”, disse à Agência FAPESP.

O Programa Minimalista foi estabelecido a partir de 1995 pelo linguista Noam Chomsky, do Instituto de Tecnologia de Massachusetts (MIT), nos Estados Unidos, derivado da Teoria de Princípios e Parâmetros, formulada pelo mesmo autor na década de 1980 a partir de uma tradição linguística iniciada em meados do século 20.

A Teoria de Princípios e Parâmetros estabeleceu a ideia de que há um componente inato, biologicamente fundamentado, na predisposição humana a aprender uma língua, e que todas as produções linguísticas seguiriam uma “gramática universal”, comum a todos os seres humanos.

“Descobriu-se então que o conhecimento linguístico se organiza em termos de princípios – propriedades invariáveis de todas as línguas – e parâmetros, que são os padrões e opções que codificam feixes dessas propriedades. A tarefa de uma criança que aprende uma língua seria, portanto, estabelecer os valores desses parâmetros”, explicou Nunes.

O Programa Minimalista tem a proposta de não apenas investigar quais são as propriedades da faculdade da linguagem e seu papel na aquisição de uma língua natural, mas também tentar explicar por que a faculdade da linguagem tem exatamente essas e não outras propriedades.

Por estabelecer um fundo comum entre todos os idiomas, o novo paradigma da Teoria de Princípios e Parâmetros, de acordo com Nunes, possibilitou a comparação detalhada entre as línguas mais variadas, em diversos estágios de desenvolvimento.

“Isso desencadeou uma gigantesca explosão de conhecimento no domínio da linguística. Não é nenhum exagero dizer que, a partir da década de 1980, aprendemos mais sobre a língua humana que em todos os séculos anteriores”, afirmou.

De acordo com Nunes, desde então houve uma grande profusão de trabalhos sobre o português brasileiro, que mostraram que a língua falada no Brasil possui uma gramática muito especial em relação ao português europeu e às outras línguas românicas.

“A partir da década de 1980, a pergunta que orientava as pesquisas era: quais são e como se organizam as propriedades das línguas humanas? No Projeto Temático, procuramos redimensionar esse conhecimento acumulado à luz dos novos avanços conquistados pelo Programa Minimalista. A pergunta central passou então a ser: por que as propriedades se organizam da maneira que se observa?”, disse.

Sujeito nulo

Um dos tópicos centrais na discussão feita sobre o português brasileiro, segundo Nunes, é a questão do chamado “sujeito nulo”, conhecido na gramática tradicional como “sujeito oculto”.

“Quando comparado ao sujeito nulo do português europeu, ou das outras línguas românicas, o sujeito nulo do português brasileiro é muito singular. O uso que fazemos do sujeito nulo é mais parecido com as construções infinitivas do inglês, ou as formas subjuntivas das línguas balcânicas, por exemplo”, disse.

O impacto dessa característica singular é muito grande, já que o tipo de sujeito nulo encontrado no português brasileiro simplesmente não deveria existir.

“Na medida em que as nossas pesquisas demonstraram que essa possibilidade teórica existe, propusemos que boa parte do modelo de análise linguística deverá ser reformulada, a fim de incorporar esses dados relativos ao português brasileiro”, disse o professor da FFLCH-USP.

A proposta de reformulação foi reportada no livro Control as movement, publicado em 2010 pela Cambridge Press University, de autoria de Nunes, Cedric Boeckx, da Universidade Autônoma de Barcelona (Espanha), e Norbert Hornstein, da Universidade de Maryland (Estados Unidos).

“Boa parte da discussão procura retomar os dados sobre o sujeito nulo. Mostramos como o modelo teórico terá que ser modificado em função das novas descobertas nesse campo”, afirmou.

Tanto o português brasileiro como o lusitano permitem o sujeito nulo, segundo Nunes. Mas, quando se observam os usos específicos, percebe-se que essa estrutura recebe um sentido bem diferente na língua falada no Brasil. “Uma das hipóteses que levantamos para explicar isso se relaciona com o enfraquecimento da concordância verbal e nominal no português brasileiro”, disse.

A previsão que se fazia antes das descobertas era de que não deveria haver línguas com o sujeito nulo em orações indicativas, com uma série de propriedades associadas com o que chamamos de movimento sintático.

“Imaginava-se que essa seria uma das propriedades universais: nenhuma língua teria esse tipo de sujeito. Mas mostramos que ele é encontrado no português brasileiro. Portanto, não é uma propriedade universal. O novo modelo terá que explicar não apenas a característica do nosso português, mas também precisará explicar por que essa ocorrência é tão rara”, afirmou.

A interpretação da frase “o João acha que a mãe do Pedro disse que vai viajar”, segundo Nunes, é clara para o brasileiro: a mãe é o sujeito de “vai viajar”, que está oculto. “Mas, para as outras línguas, se a frase for construída dessa forma, não fica claro se quem vai viajar é a mãe, o Pedro, ou o João. A interpretação nesse caso é muito difícil para quem não é brasileiro”, apontou.

Por outro lado, na frase “Maria disse que a médica acha que está grávida”, a interpretação para os brasileiros é que se torna difícil. “Soa muito estranho para nós. Dá a impressão de que a médica está grávida. Para o português europeu, não há nenhuma dúvida: quem está grávida é a Maria”, explicou.

Para uma sentença como “o João é difícil de elogiar”, o português brasileiro admite dois significados. Mas no português europeu, o significado está claro: “é difícil elogiar o João”. “Em alguns casos vamos ter mais possibilidades interpretativas no português brasileiro, em outros, no português europeu”, disse Nunes.

Outro tópico explorado no Projeto Temático no tema do sujeito nulo se refere a frases comuns no português brasileiro coloquial, como “eles parecem que vão viajar”.

“Isso é completamente impossível no português europeu. É algo que só se explica pelo que chamamos de ‘movimento’. Mas basta um deslocamento do pronome para que a frase se torne compreensível em Portugal: ‘parece que eles vão viajar’”, disse.

O movimento pode envolver expressões idiomáticas do português brasileiro, configurando um tipo de sentença que se tornaria ainda mais incompreensível em outras línguas.

“Podemos dizer ‘a vaca parece que foi para o brejo’. Isso é impossível em outra língua, ou no português europeu. O sujeito nulo só pode ser usado dessa forma no português brasileiro graças à ação de um feixe de propriedades diferentes”, disse Nunes.