Arquivo mensal: abril 2011

>Climategate: What Really Happened? (Mother Jones)

>

Anúncios

Estatais inovam mais do que as companhias privadas, mostra pesquisa (Agência Brasil)

JC e-mail 4244, de 26 de Abril de 2011.

Entre 2006 e 2008, as empresas estatais federais promoveram mais inovações do que as companhias privadas.

Praticamente sete em cada 10 empresas públicas criaram algum produto ou processo nesse período, segundo a Pesquisa de Inovação nas Empresas Estatais Federais 2008, divulgada quarta-feira (20) pelo Instituto Brasileiro de Geografia e Estatística (IBGE). Entre as empresas privadas, de acordo com a última Pesquisa de Inovação Tecnológica (Pintec) do IBGE, a relação cai para quatro em cada dezena.

O estudo sobre inovação nas estatais foi feito em parceria com os ministérios da Ciência e Tecnologia e do Planejamento e analisou, pela primeira vez, as empresas federais isoladamente. Ao todo, foram investigadas 72 companhias públicas, de um total de 118 acompanhadas pelo Departamento de Coordenação e Controle das Empresas Estatais (Dest).

De acordo com a gerente responsável pela pesquisa, Fernanda Vilhena, esse resultado reflete o padrão de inovação observado nas estatais federais, mais voltado para pesquisa e desenvolvimento (P&D), geralmente em parceria com universidades. “O grande diferencial é que as empresas, sobretudo as industriais, promovem a inovação muito baseada na compra de máquinas e equipamentos. Já nas estatais federais, o padrão de inovação é voltado para pesquisa e desenvolvimento dentro da própria empresa e, também, com arranjos cooperativos com universidades. Isso é muito interessante e acabou determinando o resultado positivo de inovação nessas companhias”, disse ele.

A pesquisa também revelou que, entre as estatais inovadoras, 27,8% lançaram algum produto novo no mercado nacional e 29,2% implementaram processo inédito, também direcionado ao mercado interno. Nas empresas privadas, esses percentuais são 4,4% e 2,4%, respectivamente.

Vilhena ressaltou que essa diferença pode ser explicada, além do volume maior de investimentos em pesquisa e desenvolvimento, pelo monopólio que algumas estatais exercem em determinados setores, como o de energia. “Essas empresas são muito intensivas em pesquisa e desenvolvimento, o que gera muito processo inovador. No caso dos produtos, as estatais, muitas vezes, são as únicas ofertantes de um produto.
Então, ao lançar um produto novo, ele é automaticamente novo para o mercado”.

A pesquisa também destacou que o apoio do governo, por meio de bolsas de fundações de amparo à pesquisa e dos incentivos do Plano de Aceleração do Crescimento (PAC), impulsionou as inovações nas empresas estatais. Já em relação aos entraves para implementar processos inovadores, o estudo revela que as dificuldades são mais evidentes nas companhias públicas. Mais da metade (57,1%) enfrentaram pelo menos um obstáculo de importância alta ou média para inovar, especialmente relacionado à burocracia da administração pública. A dificuldade para se adequar a padrões, normas e regulamentações e a rigidez organizacional foram citados por 64,2% delas. Já para o conjunto de empresas privadas ouvidas pela Pintec, os maiores obstáculos foram os elevados custos da inovação (57,1%), os riscos econômicos excessivos (65,6%) e a escassez de financiamento (51,4%).
(Agência Brasil)

>The Science of Why We Don’t Believe Science (Mother Jones)

>

Illustration: Jonathon Rosen
How our brains fool us on climate, creationism, and the vaccine-autism link.

— By Chris Mooney
Mon Apr. 18, 2011 3:00 AM PDT

“A MAN WITH A CONVICTION is a hard man to change. Tell him you disagree and he turns away. Show him facts or figures and he questions your sources. Appeal to logic and he fails to see your point.” So wrote the celebrated Stanford University psychologist Leon Festinger, in a passage that might have been referring to climate change denial—the persistent rejection, on the part of so many Americans today, of what we know about global warming and its human causes. But it was too early for that—this was the 1950s—and Festinger was actually describing a famous case study in psychology.

Festinger and several of his colleagues had infiltrated the Seekers, a small Chicago-area cult whose members thought they were communicating with aliens—including one, “Sananda,” who they believed was the astral incarnation of Jesus Christ. The group was led by Dorothy Martin, a Dianetics devotee who transcribed the interstellar messages through automatic writing.

Through her, the aliens had given the precise date of an Earth-rending cataclysm: December 21, 1954. Some of Martin’s followers quit their jobs and sold their property, expecting to be rescued by a flying saucer when the continent split asunder and a new sea swallowed much of the United States. The disciples even went so far as to remove brassieres and rip zippers out of their trousers—the metal, they believed, would pose a danger on the spacecraft.

Festinger and his team were with the cult when the prophecy failed. First, the “boys upstairs” (as the aliens were sometimes called) did not show up and rescue the Seekers. Then December 21 arrived without incident. It was the moment Festinger had been waiting for: How would people so emotionally invested in a belief system react, now that it had been soundly refuted?

At first, the group struggled for an explanation. But then rationalization set in. A new message arrived, announcing that they’d all been spared at the last minute. Festinger summarized the extraterrestrials’ new pronouncement: “The little group, sitting all night long, had spread so much light that God had saved the world from destruction.” Their willingness to believe in the prophecy had saved Earth from the prophecy!

From that day forward, the Seekers, previously shy of the press and indifferent toward evangelizing, began to proselytize. “Their sense of urgency was enormous,” wrote Festinger. The devastation of all they had believed had made them even more certain of their beliefs.

In the annals of denial, it doesn’t get much more extreme than the Seekers. They lost their jobs, the press mocked them, and there were efforts to keep them away from impressionable young minds. But while Martin’s space cult might lie at on the far end of the spectrum of human self-delusion, there’s plenty to go around. And since Festinger’s day, an array of new discoveries in psychology and neuroscience has further demonstrated how our preexisting beliefs, far more than any new facts, can skew our thoughts and even color what we consider our most dispassionate and logical conclusions. This tendency toward so-called “motivated reasoning” helps explain why we find groups so polarized over matters where the evidence is so unequivocal: climate change, vaccines, “death panels,” the birthplace and religion of the president, and much else. It would seem that expecting people to be convinced by the facts flies in the face of, you know, the facts.

The theory of motivated reasoning builds on a key insight of modern neuroscience: Reasoning is actually suffused with emotion (or what researchers often call “affect”). Not only are the two inseparable, but our positive or negative feelings about people, things, and ideas arise much more rapidly than our conscious thoughts, in a matter of milliseconds—fast enough to detect with an EEG device, but long before we’re aware of it. That shouldn’t be surprising: Evolution required us to react very quickly to stimuli in our environment. It’s a “basic human survival skill,” explains political scientist Arthur Lupia of the University of Michigan. We push threatening information away; we pull friendly information close. We apply fight-or-flight reflexes not only to predators, but to data itself.

“We apply fight-or-flight reflexes not only to predators, but to data itself.”

We’re not driven only by emotions, of course—we also reason, deliberate. But reasoning comes later, works slower—and even then, it doesn’t take place in an emotional vacuum. Rather, our quick-fire emotions can set us on a course of thinking that’s highly biased, especially on topics we care a great deal about.

Consider a person who has heard about a scientific discovery that deeply challenges her belief in divine creation—a new hominid, say, that confirms our evolutionary origins. What happens next, explains political scientist Charles Taber of Stony Brook University, is a subconscious negative response to the new information—and that response, in turn, guides the type of memories and associations formed in the conscious mind. “They retrieve thoughts that are consistent with their previous beliefs,” says Taber, “and that will lead them to build an argument and challenge what they’re hearing.”

In other words, when we think we’re reasoning, we may instead be rationalizing. Or to use an analogy offered by University of Virginia psychologist Jonathan Haidt: We may think we’re being scientists, but we’re actually being lawyers. Our “reasoning” is a means to a predetermined end—winning our “case”—and is shot through with biases. They include “confirmation bias,” in which we give greater heed to evidence and arguments that bolster our beliefs, and “disconfirmation bias,” in which we expend disproportionate energy trying to debunk or refute views and arguments that we find uncongenial.

That’s a lot of jargon, but we all understand these mechanisms when it comes to interpersonal relationships. If I don’t want to believe that my spouse is being unfaithful, or that my child is a bully, I can go to great lengths to explain away behavior that seems obvious to everybody else—everybody who isn’t too emotionally invested to accept it, anyway. That’s not to suggest that we aren’t also motivated to perceive the world accurately—we are. Or that we never change our minds—we do. It’s just that we have other important goals besides accuracy—including identity affirmation and protecting one’s sense of self—and often those make us highly resistant to changing our beliefs when the facts say we should.

Modern science originated from an attempt to weed out such subjective lapses—what that great 17th century theorist of the scientific method, Francis Bacon, dubbed the “idols of the mind.” Even if individual researchers are prone to falling in love with their own theories, the broader processes of peer review and institutionalized skepticism are designed to ensure that, eventually, the best ideas prevail.

“Scientific evidence is highly susceptible to misinterpretation. Giving ideologues scientific data that’s relevant to their beliefs is like unleashing them in the motivated-reasoning equivalent of a candy store.”

Our individual responses to the conclusions that science reaches, however, are quite another matter. Ironically, in part because researchers employ so much nuance and strive to disclose all remaining sources of uncertainty, scientific evidence is highly susceptible to selective reading and misinterpretation. Giving ideologues or partisans scientific data that’s relevant to their beliefs is like unleashing them in the motivated-reasoning equivalent of a candy store.

Sure enough, a large number of psychological studies have shown that people respond to scientific or technical evidence in ways that justify their preexisting beliefs. In a classic 1979 experiment, pro- and anti-death penalty advocates were exposed to descriptions of two fake scientific studies: one supporting and one undermining the notion that capital punishment deters violent crime and, in particular, murder. They were also shown detailed methodological critiques of the fake studies—and in a scientific sense, neither study was stronger than the other. Yet in each case, advocates more heavily criticized the study whose conclusions disagreed with their own, while describing the study that was more ideologically congenial as more “convincing.”

Since then, similar results have been found for how people respond to “evidence” about affirmative action, gun control, the accuracy of gay stereotypes, and much else. Even when study subjects are explicitly instructed to be unbiased and even-handed about the evidence, they often fail.

And it’s not just that people twist or selectively read scientific evidence to support their preexisting views. According to research by Yale Law School professor Dan Kahan and his colleagues, people’s deep-seated views about morality, and about the way society should be ordered, strongly predict whom they consider to be a legitimate scientific expert in the first place—and thus where they consider “scientific consensus” to lie on contested issues.

In Kahan’s research, individuals are classified, based on their cultural values, as either “individualists” or “communitarians,” and as either “hierarchical” or “egalitarian” in outlook. (Somewhat oversimplifying, you can think of hierarchical individualists as akin to conservative Republicans, and egalitarian communitarians as liberal Democrats.) In one study, subjects in the different groups were asked to help a close friend determine the risks associated with climate change, sequestering nuclear waste, or concealed carry laws: “The friend tells you that he or she is planning to read a book about the issue but would like to get your opinion on whether the author seems like a knowledgeable and trustworthy expert.” A subject was then presented with the résumé of a fake expert “depicted as a member of the National Academy of Sciences who had earned a Ph.D. in a pertinent field from one elite university and who was now on the faculty of another.” The subject was then shown a book excerpt by that “expert,” in which the risk of the issue at hand was portrayed as high or low, well-founded or speculative. The results were stark: When the scientist’s position stated that global warming is real and human-caused, for instance, only 23 percent of hierarchical individualists agreed the person was a “trustworthy and knowledgeable expert.” Yet 88 percent of egalitarian communitarians accepted the same scientist’s expertise. Similar divides were observed on whether nuclear waste can be safely stored underground and whether letting people carry guns deters crime. (The alliances did not always hold. In another study, hierarchs and communitarians were in favor of laws that would compel the mentally ill to accept treatment, whereas individualists and egalitarians were opposed.)

“Head-on attempts to persuade can sometimes trigger a backfire effect, where people not only fail to change their minds when confronted with the facts—they may hold their wrong views more tenaciously than ever.”

In other words, people rejected the validity of a scientific source because its conclusion contradicted their deeply held views—and thus the relative risks inherent in each scenario. A hierarchal individualist finds it difficult to believe that the things he prizes (commerce, industry, a man’s freedom to possess a gun to defend his family) could lead to outcomes deleterious to society. Whereas egalitarian communitarians tend to think that the free market causes harm, that patriarchal families mess up kids, and that people can’t handle their guns. The study subjects weren’t “anti-science”—not in their own minds, anyway. It’s just that “science” was whatever they wanted it to be. “We’ve come to a misadventure, a bad situation where diverse citizens, who rely on diverse systems of cultural certification, are in conflict,” says Kahan.

And that undercuts the standard notion that the way to persuade people is via evidence and argument. In fact, head-on attempts to persuade can sometimes trigger a backfire effect, where people not only fail to change their minds when confronted with the facts—they may hold their wrong views more tenaciously than ever.

Take, for instance, the question of whether Saddam Hussein possessed hidden weapons of mass destruction just before the US invasion of Iraq in 2003. When political scientists Brendan Nyhan and Jason Reifler showed subjects fake newspaper articles in which this was first suggested (in a 2004 quote from President Bush) and then refuted (with the findings of the Bush-commissioned Iraq Survey Group report, which found no evidence of active WMD programs in pre-invasion Iraq), they found that conservatives were more likely than before to believe the claim. (The researchers also tested how liberals responded when shown that Bush did not actually “ban” embryonic stem-cell research. Liberals weren’t particularly amenable to persuasion, either, but no backfire effect was observed.)

Another study gives some inkling of what may be going through people’s minds when they resist persuasion. Northwestern University sociologist Monica Prasad and her colleagues wanted to test whether they could dislodge the notion that Saddam Hussein and Al Qaeda were secretly collaborating among those most likely to believe it—Republican partisans from highly GOP-friendly counties. So the researchers set up a study in which they discussed the topic with some of these Republicans in person. They would cite the findings of the 9/11 Commission, as well as a statement in which George W. Bush himself denied his administration had “said the 9/11 attacks were orchestrated between Saddam and Al Qaeda.”

“One study showed that not even Bush’s own words could change the minds of Bush voters who believed there was an Iraq-Al Qaeda link.”

As it turned out, not even Bush’s own words could change the minds of these Bush voters—just 1 of the 49 partisans who originally believed the Iraq-Al Qaeda claim changed his or her mind. Far more common was resisting the correction in a variety of ways, either by coming up with counterarguments or by simply being unmovable:

Interviewer: [T]he September 11 Commission found no link between Saddam and 9/11, and this is what President Bush said. Do you have any comments on either of those? 

Respondent: Well, I bet they say that the Commission didn’t have any proof of it but I guess we still can have our opinions and feel that way even though they say that.

The same types of responses are already being documented on divisive topics facing the current administration. Take the “Ground Zero mosque.” Using information from the political myth-busting site FactCheck.org, a team at Ohio State presented subjects with a detailed rebuttal to the claim that “Feisal Abdul Rauf, the Imam backing the proposed Islamic cultural center and mosque, is a terrorist-sympathizer.” Yet among those who were aware of the rumor and believed it, fewer than a third changed their minds.

A key question—and one that’s difficult to answer—is how “irrational” all this is. On the one hand, it doesn’t make sense to discard an entire belief system, built up over a lifetime, because of some new snippet of information. “It is quite possible to say, ‘I reached this pro-capital-punishment decision based on real information that I arrived at over my life,'” explains Stanford social psychologist Jon Krosnick. Indeed, there’s a sense in which science denial could be considered keenly “rational.” In certain conservative communities, explains Yale’s Kahan, “People who say, ‘I think there’s something to climate change,’ that’s going to mark them out as a certain kind of person, and their life is going to go less well.”

This may help explain a curious pattern Nyhan and his colleagues found when they tried to test the fallacy that President Obama is a Muslim. When a nonwhite researcher was administering their study, research subjects were amenable to changing their minds about the president’s religion and updating incorrect views. But when only white researchers were present, GOP survey subjects in particular were more likely to believe the Obama Muslim myth than before. The subjects were using “social desirabililty” to tailor their beliefs (or stated beliefs, anyway) to whoever was listening.

Which leads us to the media. When people grow polarized over a body of evidence, or a resolvable matter of fact, the cause may be some form of biased reasoning, but they could also be receiving skewed information to begin with—or a complicated combination of both. In the Ground Zero mosque case, for instance, a follow-up study showed that survey respondents who watched Fox News were more likely to believe the Rauf rumor and three related ones—and they believed them more strongly than non-Fox watchers.

Okay, so people gravitate toward information that confirms what they believe, and they select sources that deliver it. Same as it ever was, right? Maybe, but the problem is arguably growing more acute, given the way we now consume information—through the Facebook links of friends, or tweets that lack nuance or context, or “narrowcast” and often highly ideological media that have relatively small, like-minded audiences. Those basic human survival skills of ours, says Michigan’s Arthur Lupia, are “not well-adapted to our information age.”

“A predictor of whether you accept the science of global warming? Whether you’re a Republican or a Democrat.”

If you wanted to show how and why fact is ditched in favor of motivated reasoning, you could find no better test case than climate change. After all, it’s an issue where you have highly technical information on one hand and very strong beliefs on the other. And sure enough, one key predictor of whether you accept the science of global warming is whether you’re a Republican or a Democrat. The two groups have been growing more divided in their views about the topic, even as the science becomes more unequivocal.

So perhaps it should come as no surprise that more education doesn’t budge Republican views. On the contrary: In a 2008 Pew survey, for instance, only 19 percent of college-educated Republicans agreed that the planet is warming due to human actions, versus 31 percent of non-college educated Republicans. In other words, a higher education correlated with an increased likelihood of denying the science on the issue. Meanwhile, among Democrats and independents, more education correlated with greater acceptance of the science.

Other studies have shown a similar effect: Republicans who think they understand the global warming issue best are least concerned about it; and among Republicans and those with higher levels of distrust of science in general, learning more about the issue doesn’t increase one’s concern about it. What’s going on here? Well, according to Charles Taber and Milton Lodge of Stony Brook, one insidious aspect of motivated reasoning is that political sophisticates are prone to be more biased than those who know less about the issues. “People who have a dislike of some policy—for example, abortion—if they’re unsophisticated they can just reject it out of hand,” says Lodge. “But if they’re sophisticated, they can go one step further and start coming up with counterarguments.” These individuals are just as emotionally driven and biased as the rest of us, but they’re able to generate more and better reasons to explain why they’re right—and so their minds become harder to change.

That may be why the selectively quoted emails of Climategate were so quickly and easily seized upon by partisans as evidence of scandal. Cherry-picking is precisely the sort of behavior you would expect motivated reasoners to engage in to bolster their views—and whatever you may think about Climategate, the emails were a rich trove of new information upon which to impose one’s ideology.

Climategate had a substantial impact on public opinion, according to Anthony Leiserowitz, director of the Yale Project on Climate Change Communication. It contributed to an overall drop in public concern about climate change and a significant loss of trust in scientists. But—as we should expect by now—these declines were concentrated among particular groups of Americans: Republicans, conservatives, and those with “individualistic” values. Liberals and those with “egalitarian” values didn’t lose much trust in climate science or scientists at all. “In some ways, Climategate was like a Rorschach test,” Leiserowitz says, “with different groups interpreting ambiguous facts in very different ways.”

“Is there a case study of science denial that largely occupies the political left? Yes: the claim that childhood vaccines are causing an epidemic of autism.”

So is there a case study of science denial that largely occupies the political left? Yes: the claim that childhood vaccines are causing an epidemic of autism. Its most famous proponents are an environmentalist (Robert F. Kennedy Jr.) and numerous Hollywood celebrities (most notably Jenny McCarthy and Jim Carrey). The Huffington Post gives a very large megaphone to denialists. And Seth Mnookin, author of the new book The Panic Virus, notes that if you want to find vaccine deniers, all you need to do is go hang out at Whole Foods.

Vaccine denial has all the hallmarks of a belief system that’s not amenable to refutation. Over the past decade, the assertion that childhood vaccines are driving autism rates has been undermined by multiple epidemiological studies—as well as the simple fact that autism rates continue to rise, even though the alleged offending agent in vaccines (a mercury-based preservative called thimerosal) has long since been removed.

Yet the true believers persist—critiquing each new study that challenges their views, and even rallying to the defense of vaccine-autism researcher Andrew Wakefield, after his 1998 Lancet paper—which originated the current vaccine scare—was retracted and he subsequently lost his license (PDF) to practice medicine. But then, why should we be surprised? Vaccine deniers created their own partisan media, such as the website Age of Autism, that instantly blast out critiques and counterarguments whenever any new development casts further doubt on anti-vaccine views.

It all raises the question: Do left and right differ in any meaningful way when it comes to biases in processing information, or are we all equally susceptible?

There are some clear differences. Science denial today is considerably more prominent on the political right—once you survey climate and related environmental issues, anti-evolutionism, attacks on reproductive health science by the Christian right, and stem-cell and biomedical matters. More tellingly, anti-vaccine positions are virtually nonexistent among Democratic officeholders today—whereas anti-climate-science views are becoming monolithic among Republican elected officials.

Some researchers have suggested that there are psychological differences between the left and the right that might impact responses to new information—that conservatives are more rigid and authoritarian, and liberals more tolerant of ambiguity. Psychologist John Jost of New York University has further argued that conservatives are “system justifiers”: They engage in motivated reasoning to defend the status quo.

This is a contested area, however, because as soon as one tries to psychoanalyze inherent political differences, a battery of counterarguments emerges: What about dogmatic and militant communists? What about how the parties have differed through history? After all, the most canonical case of ideologically driven science denial is probably the rejection of genetics in the Soviet Union, where researchers disagreeing with the anti-Mendelian scientist (and Stalin stooge) Trofim Lysenko were executed, and genetics itself was denounced as a “bourgeois” science and officially banned.

The upshot: All we can currently bank on is the fact that we all have blinders in some situations. The question then becomes: What can be done to counteract human nature itself?

“We all have blinders in some situations. The question then becomes: What can be done to counteract human nature?”

Given the power of our prior beliefs to skew how we respond to new information, one thing is becoming clear: If you want someone to accept new evidence, make sure to present it to them in a context that doesn’t trigger a defensive, emotional reaction.

This theory is gaining traction in part because of Kahan’s work at Yale. In one study, he and his colleagues packaged the basic science of climate change into fake newspaper articles bearing two very different headlines—”Scientific Panel Recommends Anti-Pollution Solution to Global Warming” and “Scientific Panel Recommends Nuclear Solution to Global Warming”—and then tested how citizens with different values responded. Sure enough, the latter framing made hierarchical individualists much more open to accepting the fact that humans are causing global warming. Kahan infers that the effect occurred because the science had been written into an alternative narrative that appealed to their pro-industry worldview.

You can follow the logic to its conclusion: Conservatives are more likely to embrace climate science if it comes to them via a business or religious leader, who can set the issue in the context of different values than those from which environmentalists or scientists often argue. Doing so is, effectively, to signal a détente in what Kahan has called a “culture war of fact.” In other words, paradoxically, you don’t lead with the facts in order to convince. You lead with the values—so as to give the facts a fighting chance.

[Original link with access to mentioned studies here.]

Que democracia racial é essa? (Carta Capital)

Por Rodrigo Martins

20 de abril de 2011

Apesar da redução das disparidades propiciadas por programas de segurança alimentar, como o Bolsa Família, o abismo que separa brancos e negros no Brasil continua gigantesco. Essa é uma das conclusões do 2º Relatório Anual de Desigualdades Raciais, divulgado na terça-feira 19, pelo Instituto de Economia da Universidade Federal do Rio de Janeiro (UFRJ).

Os indicadores foram compilados a partir de diferentes bases de dados do IBGE, dos ministérios da Saúde e Educação, entre outras instituições públicas. O estudo revela que os afrodescendentes têm menor acesso ao sistema de saúde (uma taxa de não cobertura de 27%, frente aos 14% verificados entre a população branca), a exames ginecológicos preventivos, ao pré-natal e sofrem com uma taxa maior de mortalidade materna.

Por dia, morrem cerca de 2,6 mulheres pretas ou pardas por complicações na gestação, enquanto este mesmo problema acomete 1,5 mulheres brancas. Entre 1986 e 2008, a taxa de fecundidade das afrodescendentes caiu de forma mais acelerada (48,8%) que a das brancas (36,7%). No entanto, as mulheres pretas ou pardas se sujeitam com mais intensidade a procedimentos radicais de contracepção, como as laqueaduras. Quase 30% dessa população em idade fértil estavam esterilizada em 2006, frente a uma taxa de 21,7% das mulheres brancas.

“Ninguém é contra o planejamento familiar. A queda na taxa de natalidade representa uma melhora na qualidade de vida das pessoas. Mas as afrodescendentes poderiam ter acesso a formas menos agressivas de intervenção”, avalia o economista Marcelo Paixão, coordenador do relatório. “A esterilização é uma solução radical demais. É como arrancar um dente para não tratar uma cárie. Por isso, causa preocupação o fato de parte dessa redução da fecundidade estar associada às laqueaduras.”

Nos últimos 20 anos, a média do tempo de estudos dos afrodescendentes acima de 15 anos passou de 3,6 anos para 6,5. Mesmo assim, está muito aquém da população branca, hoje com uma média de 8,3 anos de estudo. Além disso, 45,4% das crianças pretas ou pardas entre 6 e 10 anos estudava na série inadequada em 2008, frente ao percentual do 40,4% dos brancos. Entre as crianças de 11 e 14 anos, o problema é ainda mais grave, pois 62,3% dos afrodescendentes não estudavam na série correta. Entre os jovens brancos, a inadequação atingia 45,7%.

Por outro lado, as famílias pretas ou pardas beneficiadas pelo Bolsa Família conseguiram aumentar a quantidade de alimentos consumidos em proporção superior (75,7%) a das famílias brancas (70,1%). A elevação no consumo de arroz entre os afrodescendentes foi de 68,5%. Brancos: 31,5%. No caso do feijão, o consumo dos pretos e pardos cresceu 68%. Brancos: 32%.

“Apesar de melhorar a segurança alimentar dos afrodescendentes, o que é importantíssimo, em todos os outros setores percebe que a discrepância entre brancos e negros prevalece”, comenta Paixão. “Devido às elevadas taxas de desemprego, rotatividade no mercado de trabalho e informalidade, os pretos e partos tem um acesso bem menor à cobertura da Previdência Social. A diferença chega a dez pontos percentuais na população masculina e 20% entre as mulheres”, completa.

Outro dado que chama a atenção é o baixo índice de condenação por crimes de racismo no Brasil. Entre 2007 e 2008, 66,9% dos casos julgados nos Tribunais de Justiça de todo o País foram vencidas pelos réus e apenas 29,7% das supostas vítimas saíram vitoriosas. Na primeira instância, as vítimas tiveram sua demanda judicial contemplada em 40,5% dos acórdãos.

“Talvez os magistrados ainda acreditem no mito da democracia racial brasileira e, por isso, sejam mais brandos nas condenações e na aplicação das penas”, especula o professor da UFRJ. “Pela lei, o racismo é um crime inafiançável e imprescritível, mas não tenho notícia de um único racista condenado à prisão no Brasil. Vejo apenas punições pecuniárias, sobretudo indenizações, e pedidos de desculpas formais.”

Climate, Communication and the ‘Nerd Loop’ (N.Y. Times, Dot Earth)

April 14, 2011, 9:46 AM – By ANDREW C. REVKIN

Randy Olson, the marine biologist turned filmmaker and author who’s about as far from the label “nerd” as can be, had his Howard Beale “mad as hell” moment over climate miscommunication last week on his blog, The Benshi.

The piece, “The Nerd Loop: Why I’m Losing Interest in Communicating Climate Change,” is a long disquisition on why there’s too much thumb sucking and circular analysis and not enough experimentation among institutions concerned about public indifference to risks posed by human-driven global warming. He particularly criticizes scientific groups, universities, environmental groups and foundations and other sources of funding. Randy summarized his points in a short “index card” presentation (in lieu of a Powerpoint) and followup interview on Skype (above). [Stephen McIntyre of Climateaudit has posted a response, entitled “The Smug Loop.“]

In our chat I admitted freely that I’ve stepped aboard the “nerd loop” on occasion on this blog, exploring humanity’s “blah, blah, blah, bang” habit when it comes to confronting certain kinds of risks. This goes for financial bubbles and tsunamis as well as long-term, long-lasting changes in the climate.

I agree with Olson, utterly, that there’s not enough experimentation, too much fear of failure and also far too much fear and misunderstanding at scientific institutions, from America’s universities to the Intergovernmental Panel on Climate Change, about the obligation and responsibility to engage the public in a sustained way. As I’ve put it here and elsewhere many times, it’s particularly important as traditional science journalism becomes a shrinking wedge of a growing pie of communication portals.

I encourage you to watch the video and/or read Olson’s provocative essay. You won’t agree with all of what he says. I don’t, and in fact I think that research revealing the human habit of embracing or ignoring information based on predispositions and emotion, not the information, is vitally important to convey (and needs to be conveyed more creatively, too!).

But I hope you’ll recognize the merits in Olson’s argument. Here’s the summary of the “Nerd Loop” essay:

Mass communication is not a science. How many times do I have to say this? The more you think it is — or even let yourself talk about the science side of it without allocating EQUAL energy to the art side of it, the more you are doomed to take it deeper into the hole of boredom and irrelevance. Such is the state of climate science communication by the large science and environmental organizations who have bought into the magic bullet of metrics and messaging.

AND FURTHERMORE … eh, hem (a colleague at NASA just pointed this out to me) … look at this quote: “Recent advances in behavioral and decision science also tell us that emotion is an integral part of our thinking, perceptions, and behavior, and can be essential for making well-judged decisions.”

“RECENT ADVANCES”??? Social scientists think this is some sort of recent breakthrough — that humans are not robots? The quote comes from a paper in the first volume of the new Nature Climate journal. As my colleague said, “What rock did these guys crawl out from under? Give me a break all you social scientists and quit living up to your stereotype.”

Honestly.

Here are some relevant posts and links. Beware, you’re about to enter “the nerd loop” (which I, personally, see as important, even as everyone loosens up and starts experimenting):

The Psychology of Climate Change Communication” (The Center for Research on Environmental Decisions, Columbia University)

Climate, Mind and Behavior” (a series of symposiums at the Garrison Institute)

Communicating Climate Change” (The Pew Center on Global Climate Change)

Knowledge of Climate Change Across Global Warming’s Six Americas” (Yale Project on Climate Change Communication)

[Original link: http://dotearth.blogs.nytimes.com/2011/04/14/climate-communication-and-the-nerd-loop/]

>Evento promove o Ciber-Ciência Cidadã no Brasil (JC/Gestão C&T)

>
JC e-mail 4240, de 18 de Abril de 2011

Ele é voltado aos interessados em participar de projetos científicos relacionados aos mais diversos temas, como mudanças climáticas, física de partículas, além de desenvolvedores, programadores e cientistas.

No mês de maio, alguns estados receberão o evento Brasil@home, uma iniciativa para promover o Ciber-Ciência Cidadã, que é a participação da sociedade em projetos científicos via internet, no Brasil e na América Latina. É uma introdução aos conceitos e prática de computação voluntária, inteligência distribuída e sensoriamento remoto voluntário.

No encontro, cientistas chefes dos principais projetos de Ciber-Ciência Cidadã no mundo ministrarão palestras e contribuirão para fomentar novos projetos no Brasil. O evento é voltado para interessados em participar de projetos científicos relacionados aos mais diversos temas, como mudanças climáticas, física de partículas, digitalização de documentos históricos, além de desenvolvedores, programadores e cientistas.

Alguns dos palestrantes são David Anderson, da University of Berkeley, criador do Seti@home, primeiro projeto de computação voluntária; Philip Brohan, da UK Meteorological Office, cientista do projeto Old Weather, no qual cidadãos ajudam a digitalizar dados climáticos registrados em antigos diários de bordo de navios; Francois Grey, diretor do Centro de Ciber-Ciência Cidadã; entre outros.

O Brasil@home será no dia 2 de maio em Brasília (DF); de 3 a 5 do mesmo mês no Rio de Janeiro (RJ); e no dia 6 em São Paulo (SP). A programação completa e mais informações estão no site http://www.citizencyberscience.net/brasilathome.
(Gestão C&T)

>O custo de Belo Monte (JC, O Globo)

>
JC e-mail 4240, de 18 de Abril de 2011.

Artigo de Felício Pontes Jr* no jornal O Globo nesta segunda-feira (18).

A tecnologia para exploração da energia solar sempre foi apresentada como de alto custo, bastante superior aos de outras fontes de energia. Por isso, um país como o Brasil, privilegiado pela alta incidência de insolação em seu território, deixou de investir na
tecnologia solar em favor de outras fontes, principalmente a hídrica, responsável hoje pela geração de mais de 70% da energia no País. No entanto, esse argumento, o dos altos custos, não se justifica mais.

Nos Estados Unidos, dois projetos desenvolvidos na Califórnia de aproveitamento da energia térmica utilizando espelhos para a concentração de calor, Ivanpah e Blythe, provam que os custos dessa tecnologia já são bastante menores. O projeto Ivanpah, da empresa Brightsource, dobra a produção de energia solar no país. É prevista a geração de 370 MW de energia firme. São três usinas que, no total, terão um custo de R$ 3,4 bilhões. Já o projeto Blythe, das empresas Chevron e Solar Millennium, pretende produzir 960 MW ao custo de R$ 9,6 bilhões.

Se multiplicássemos o custo para geração de um megawatt nesses dois projetos de matriz solar por 4 mil megawatts médios – a quantidade, sendo otimista, de geração de energia prevista no projeto hidrelétrico de Belo Monte – teríamos um total de R$ 38 bilhões, no caso de Ivanpah, e de R$ 36,7 bilhões, se utilizarmos os valores relativos a Blythe.

Na primeira ação judicial contra Belo Monte, proposta em 2001, o governo dizia que a usina custaria R$ 10,4 bilhões. Ao pedir empréstimo ao BNDES, em 2011, o consórcio de empresas para fazer Belo Monte solicitou R$ 25 bilhões, o que representaria em torno de 80% dos custos. Logo, o custo oficial seria de R$ 31,2 bilhões. Nesse custo não estão previstos o valor do desmatamento que pode atingir 5,3 mil km² de floresta (segundo o próprio consórcio), o valor de 100 km de leito do Xingu que praticamente ficará seco, a indenização a povos indígenas e ribeirinhos localizados nesse trecho, todos os bairros de Altamira que estão abaixo da cota 100 e, portanto, serão inundados… só para mostrar alguns exemplos.

Os custos finais de Belo Monte ainda são incertos, graças ao descumprimento das leis do licenciamento ambiental em vários momentos. Conforme apontou o relatório de análise de riscos feito por especialistas e intitulado “Megaprojeto, Megarriscos”, Belo Monte tem elevados riscos associados a incertezas sobre a estrutura de custos de construção do empreendimento, referentes a fatores geológicos e topológicos, de engenharia e de instabilidade em valores de mercado. Tem elevados riscos financeiros relacionados à capacidade de geração de energia elétrica, que é muito inferior à capacidade instalada. E tem riscos associados à capacidade do empreendedor de atender obrigações legais de investir em ações de mitigação e compensação de impactos sociais e ambientais do empreendimento.

Assim, computando-se todos os custos socioambientais que normalmente estão fora do orçamento das hidrelétricas na Amazônia (vide Tucuruí, Jirau, Santo Antônio e Balbina) e mais os incertos custos da própria obra (como escavações), pode-se afirmar que o valor da energia solar já é competitivo com o de Belo Monte. Se não fosse, algumas das maiores empresas do mundo não estariam nessa área. O Grupo EBX investe na primeira usina solar comercial do País, no Ceará, a MPX Solar, com 4,4 mil painéis fotovoltaicos e capacidade de abastecer 1.500 residências. E a Google investe US$ 168 milhões no projeto Ivanpah.

Mas, enquanto países de clima temperado e com territórios muito menores, como a Alemanha e a Espanha, produzem mais energia a partir do sol do que o Brasil, aqui o governo prefere impor um modelo ultrapassado. E que agora não tem mais a vantagem de ser mais barato.

Em Belo Monte, senhores investidores, tenham certeza de que todos esses custos socioambientais serão cobrados se a barragem vier a ser construída.

*Procurador da República no Pará.
(O Globo)

>Classe média vai pautar eleições, afirmam analistas (OESP)

>
Para especialistas, questão levantada por FHC em artigo sobre como fisgar emergentes será determinante no futuro dos políticos

OESP, 16 de abril de 2011
Por Gabriel Manzano

A “nova classe média”, trazida ao centro do debate político pelo ex-presidente Fernando Henrique Cardoso, na semana passada, e namorada pelo PT, que vê na presidente Dilma Rousseff a figura talhada para conquistá-la, chegou para mudar o cenário eleitoral do País, admitem analistas, marqueteiros e estudiosos.

O tema apareceu no artigo O Papel da Oposição, divulgado por FHC, e reforçou a condição desse grupo como objeto de desejo do mundo político. É um vasto universo de 29 milhões de pessoas – pobres que, nos últimos seis anos, subiram da classe D para a C e carregam consigo novos comportamentos e expectativas. Analistas, líderes partidários, comunicólogos e marqueteiros já se esforçam para entender como reagirá, no futuro, esse segmento que, ao subir na vida, fez da classe média o maior grupo social do País, com 94 milhões de pessoas (51% da população).

“Não se trata de gente sem nada, que aceite qualquer coisa. É gente que trabalhou duro, subiu, sabe o que quer, tem mais informação e se torna mais exigente”, resume Marcia Cavallari, diretora executiva do Ibope. “Isso merece um discurso novo e FHC acertou ao mandar a oposição ir atrás dela”, disse.

Não por acaso, o economista Marcelo Néri, da Fundação Getúlio Vargas – primeiro a detectar esse fenômeno, num estudo de 2010 – considera essa iniciativa de Fernando Henrique “a segunda ideia mais inteligente da oposição em anos, depois do plano de estabilização dos anos 1994-2002”. Esse brasileiro, diz ele, “quer sonhar, e não apenas diminuir seus pesadelos”.

O impacto desse cenário já se faz sentir no mundo político, que ainda procura entender a enorme votação da candidata Marina Silva (PV) nas eleições presidenciais de 2010. “Mas é perda de tempo tentar adivinhar se é um grupo de esquerda ou de direita”, observa Antonio Prado, sócio-diretor da Análise, Pesquisa e Planejamento de Mercado (APPM), em São Paulo.

Oportunidades. Grande parte desses emergentes, afirma Prado, “são cidadãos que tomaram iniciativas, buscaram créditos, tornaram-se microempresários”. Seus filhos estão entrando na universidade via ProUni. “Como trabalhadores, não querem um Estado que os tutele, mas que lhes dê oportunidades para crescer.” E como cidadãos, continua o analista, eles esperam “que haja ordem na sociedade, para nenhum malandro lhes passar a perna” – afinal, esforçaram-se demais para chegar aonde chegaram. Dos políticos, esse eleitor espera “coerência e dedicação ao bem comum”.

Para quem imagina que isso tudo tem um certo jeito de direita, Prado avisa que “esse brasileiro já foi pobre e percebeu que uma tarefa prioritária do Estado é atacar as desigualdades”. Ou seja, a nova classe é a favor dos programas sociais.

A vendedora Solange Ferreira Luz, moradora da periferia de São Paulo, é um exemplo típico desse novo eleitor mais informado e mais exigente. “Minha maior preocupação é a escola de meus dois filhos”, diz ela. Tanto que juntou dinheiro para comprar um computador e prefere que eles estudem em escolas técnicas estaduais, que lhe parecem melhores que as municipais.

Para esse eleitor, perde peso o discurso sobre “a elite de 500 anos” ou o neoliberalismo. O que lhe interessa mais, lembra Marcia Cavallari, “é que há empregos e ele não tem preparo para se candidatar a muitos deles. Então, a qualidade do ensino se torna um fator decisivo para sua vida, para ele aprender e subir. E ele quer que seus filhos cheguem à universidade e tenham uma vida melhor que a sua. Isso torna inevitável, em próximas eleições, o debate qualificado sobre o nível da educação no Brasil.”

Pode-se estender essa nova percepção a outros setores. “Para esses emergentes sociais, é tudo novidade. Ele já faz viagens de avião – e os aeroportos estão como estão. O filho na universidade saberá avaliar melhor o nível da educação”, compara Renato Meirelles, diretor do instituto Datapopular, que faz estudos sobre o mercado popular no Brasil. Ele menciona, a propósito, pesquisas segundo as quais 68% dos filhos, na classe C, estudaram mais que os pais. Na classe A, esse percentual é de apenas 10%.

Ralé e batalhadores. Os limites desse cenário, no entanto, não podem ser ignorados. Primeiro, porque os “novos” se juntam a uma enorme classe média e podem, é claro, assimilar seus projetos e valores no dia a dia. Esse termo, nova classe média, “designa setores que ampliaram sua capacidade de consumo”, adverte Leôncio Martins Rodrigues, “mas não define especialmente um novo segmento social”.

O sociólogo Jessé Souza até se recusa a admitir que exista uma nova classe média: existem o que ele chama de “batalhadores”, uma multidão que tanto poderá ser “cooptada pelo discurso e pela prática individualista”, como “assumir um papel protagonista e ajudar a ‘ralé’ – as massas desassistidas”. O próprio Fernando Henrique afirma também que uma classe implica um estilo de vida, valores, e prefere falar de “novas categorias sociais”.

Marcelo Néri destaca, também, que “nem política nem economicamente há nada conquistado nesse público – nem pelo PT nem pelas oposições”. Além disso, “todos podem perder com a inflação, se ela voltar, e também com o desemprego”.

Bandeirantes da língua portuguesa (FAPESP)

14/4/2011

Por Mônica Pileggi

Agência FAPESP – O Projeto de história do português paulista (Projeto Caipira), coordenado pelo professor Ataliba Teixeira de Castilho, mobiliza pesquisadores de diversas instituições com o objetivo de resgatar a história da língua trazida pelos portugueses que desembarcaram na Baía de São Vicente, em 1532.

Do litoral paulista, a língua se espalhou pelo país por diversas vertentes. O Temático, que reúne mais de 200 pesquisadores – 60 deles em São Paulo –, estuda, em uma espécie de “bandeirantismo”, os caminhos percorridos pelos falantes da língua portuguesa e sua transformação até chegar à língua falada hoje.

A 12ª edição do Seminário do Projeto de História do Português Paulista termina nesta sexta-feira (15/4) no Departamento de Letras Clássicas e Vernáculas da Faculdade de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo (USP). O encontro procura avaliar os resultados obtidos pelo projeto apoiado pela FAPESP na modalidade Auxílio à Pesquisa – Projeto Temático, concluído no fim de 2010.

Castilho foi professor titular da USP, da Universidade Estadual Paulista (Unesp) e da Universidade Estadual de Campinas (Unicamp). Atualmente, aos 74 anos, é professor colaborador voluntário na Unicamp.

O pesquisador presidiu a Área de Letras e Linguística da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes) (1987-1990), a Associação Brasileira de Linguística (1983-1985) e a Associação de Linguística e Filologia da América Latina (1999-2005).

Entre seus livros recentes estão Nova Gramática do Português Brasileiro (Contexto, 2010), Gramática do Português Culto Falado no Brasil (Editora da Unicamp, 2008), Descrição, História e Aquisição do Português Brasileiro (Pontes, 2007), Gramática do Português Culto Falado no Brasil (Editora da Unicamp, 2006).

Agência FAPESP – Professor Castilho, como surgiu o Projeto Caipira?
Ataliba Teixeira de Castilho – O projeto de pesquisa teve origem em 1998, durante o primeiro seminário que fizemos sobre o tema. Participaram professores brasileiros especializados em linguística histórica. Pensei em convidá-los para o projeto de modo que eles pudessem transformar aquele projeto estadual em nacional. E deu certo.

Agência FAPESP – E por que fazer esse projeto em São Paulo?
Castilho – Porque a língua portuguesa começou a ser implantada em 1532, em São Vicente, aqui no Estado de São Paulo. Foi o primeiro povoamento, quando os portugueses decidiram explorar de fato o território. Isso não ocorreu quando Pedro Álvares Cabral chegou à Bahia e partiu em seguida para as Índias. Durante 32 anos o território descoberto não foi colonizado ou ocupado. Foi em 1532, em São Vicente, que o Brasil realmente começou.

Agência FAPESP – Então, foi a partir do Estado de São Paulo que ocorreu a penetração da língua portuguesa pelo país?
Castilho – Sim, foi onde tudo começou. Depois de São Vicente vieram Santo André, São Paulo e Santana do Parnaíba. Foi por essas quatro cidades que começou a penetração do português no Brasil – com exceção do então Norte (Grão Pará e Estado do Maranhão), que era praticamente outro país e onde a colonização começou entre os séculos 17 e 18. Devido à proximidade do rio Tietê, o movimento do bandeirismo partiu de Santana do Parnaíba e começou a expansão da língua para o Mato Grosso. De Santana do Parnaíba, os bandeirantes também foram até o Peru, atrás das minas de prata, percorrendo um caminho construído pelos índios Peabirus. Como lá a colonização foi espanhola, o português não se implantou. De São Miguel Paulista, os bandeirantes levaram o português para Minas Gerais, subindo por Itaquaquecetuba e Taubaté, atrás do ouro.

Agência FAPESP – A partir do Estado de São Paulo ocorreu a penetração da língua portuguesa pelo país por esses caminhos?
Castilho – Sim, mas no fim do século 18 surgiu um terceiro caminho: o dos comerciantes que andavam com mulas. Esses tropeiros levaram o português até o Uruguai, que no tempo do império era uma província brasileira, a Cisplatina. Chegaram à Colônia do Sacramento, cidade uruguaia criada por tropeiros de Sorocaba. Tudo isso foi movimento dos paulistas. Quando São Paulo se desenvolveu mais do que todas as outras, tornou-se a maior capitania do Brasil, que inclui o que hoje são estados independentes. O termo capitania foi substituído por província e depois por estado. Então, pode-se ver que ao estudar que língua portuguesa chegou aqui e como ela se desenvolveu e mudou, conhecemos a própria história do português brasileiro.

Agência FAPESP – Uma dimensão que está espelhada no número de pesquisadores reunidos pelo projeto coordenado pelo senhor.
Castilho – Tem que ser assim, é preciso reunir muitos especialistas. Só no Estado de São Paulo somos em 60 pesquisadores, das três universidades públicas e também da Universidade Presbiteriana Mackenzie. Esse grupo maior também fez uma espécie de bandeirismo (risos). Hoje, o Projeto de História do Português Brasileiro (PHPB) tem cerca de 200 pesquisadores integrados em 11 equipes regionais, cada uma trabalhando com questões locais.

Agência FAPESP – Em todo o Brasil?
Castilho – Não, pois ainda não temos ninguém no Norte. Mas queremos ter colaboradores nessa região.

Agência FAPESP – Poderia dar alguns exemplos de contribuições do projeto para o conhecimento da história do português brasileiro?
Castilho – Esse projeto trata do conhecimento de como o português se implantou e de como ele mudou. A grande pergunta, como diz um colega nosso, é: “Que língua foi aquela que saiu das caravelas?”. Sabemos hoje que foi o português médio, um momento da história do português europeu. E aqueles navegadores que saíram das caravelas quando crianças aprenderam a falar essa modalidade, o português arcaico médio, que vai de 1450 até 1530. Essa é justamente a base do nosso português. Temos um grupo em nosso projeto que estuda como foi esse português médio para poder descrevê-lo. Nesse grupo está minha mulher, Célia Maria Moraes de Castilho, que também é linguista e leu o que se publicou dos inventários e testamentos, do século 16 até 1920, que estão guardados no Arquivo Público do Estado de São Paulo. Para entender como se deu o espalhamento desse português a partir de São Paulo, outro grupo, coordenado pelo professor Manoel Morivaldo Santiago Almeida, da USP, estudou como foi o deslocamento da língua pelo Tietê, levado pelos bandeirantes. Esse grupo verificou, por exemplo, que no Mato Grosso se guarda até hoje pronúncias do português médio arcaico. Em vez de dizer chão, eles dizem “tchon”. Palavras com “ch” são ditas com “tch”, e “x” é dito “xê”. Então temos “tchapéu” ou “tchuva”. Eles não têm o ditongo nasal “ão”, e sim a vogal nasal “on”, como era no português antigo. Estou falando de fonética, mas há também outras características gramaticais que se conservaram lá.

Agência FAPESP – E isso até na capital, Cuiabá?
Castilho – Sim. E é no meio familiar que você surpreende isso, essas pronúncias todas do português de antes.

Agência FAPESP – Como se desenvolveram aqui em São Paulo o português popular e o português culto?
Castilho – A professora Ângela Cecília Souza Rodrigues, da USP, é a responsável pelo projeto sobre o português não padrão, que é o dos analfabetos e de pessoas que aprendem em casa. O objetivo é documentar e achar nos documentos traços desse português popular.

Agência FAPESP – Ela já obteve resultados?
Castilho – Ela começou de trás para frente, descreveu primeiro o que tem hoje no português popular. Não é só paulista que fala o português popular, pois o estado atraiu gente de todos os lados. A professora Ângela encontrou nos primeiros documentos de traços linguísticos a questão da concordância. Ela observou que muito da concordância que hoje se considera padrão popular era usada pelos portugueses naquele tempo, como em “os menino chegou”, por exemplo. Isso não foi uma criação daqui não, estava lá. Outro grupo de pesquisa estuda a formação do padrão culto, a história do português ensinado nas escolas. As professoras Marilza de Oliveira (USP) e Maria Célia Lima-Hernandes (USP) estudam esse ponto, de como se formou o português culto em São Paulo.

Agência FAPESP – O que elas descobriram?
Castilho – O que se descobriu é que até algum tempo atrás o português culto era idêntico ao português europeu, mesmo aqui em São Paulo. Só se começou a falar o português culto bem tardiamente. No começo era um povão, indistinto, que falava o português popular. Foi preciso surgir escolas para que aparecesse essa outra variedade. Aqui em São Paulo foi muito importante a fundação da Faculdade de Direito, em 1827, que trouxe gente do Brasil inteiro. Na mesma época, começou a haver um interesse maior em ler jornais, escrever e ler poesias, romances. Era o Romantismo. Pois esse grupo de pesquisa analisa esses documentos e observa que reação as pessoas que vinham para cá tinham em relação à língua falada aqui, que era o caipira.

Agência FAPESP – E como se desenvolveu o português culto?
Castilho – Do início do século 19 até a instituição da USP, em 1934, foram criadas várias escolas isoladas, pois não havia a concepção de universidade como existe hoje. No século 19, o português culto era imitação exata do português culto europeu. Em 1922, com o movimento modernista e o crescimento da comunidade de São Paulo, não se considerava mais que o português culto era o português dos portugueses, nós nos descolamos disso. Ainda em 1920, 1930, tínhamos certa sensação de nação colonizada. Quando isso passou é que nos desgarramos do português escrito culto europeu. E aí os modernistas tiveram um papel muito importante, sobretudo Mário de Andrade. Ele criou biblioteca, departamento de cultura, fundou a revista do Arquivo Municipal. Houve uma grande agitação cultural e as pessoas foram assumindo com mais naturalidade a forma como elas escreviam.

Agência FAPESP – Hoje, a característica caipira é muitas vezes encarada de forma depreciativa. Naquela época ocorria a mesma coisa?
Castilho – Caipira não era uma palavra depreciativa, era a designação do português falado pelos paulistas. Depois, com o desenvolvimento da cidade de São Paulo como centro cultural, aí sim ficou muito assemelhado ao português popular, de pessoas sem escolaridade. E como a cidade cresceu demais, esse português foi empurrado para o interior do estado e ali ficou.

Agência FAPESP – Em uma entrevista, o senhor fala sobre o uso da internet pelas crianças e diz que elas passaram a escrever mais, o que seria positivo. Mas, ao mesmo tempo, a rede não incentiva a grafia errada?
Castilho – Sim, as crianças passaram a escrever mais e, sobretudo, não por que o professor manda. Para nós, linguistas, essa questão do escrever errado ocorre quando uma pessoa escreve e a outra não consegue entender. No mais, é uma variedade que você está jogando. O que é escrever errado? É o português não culto? A internet não atrapalha, ela ajuda e resolve um problema de ortografia, no caso de uso de abreviações, como é tudo abreviado. A ortografia é convenção, ela vai atrás da língua com o seu dinamismo. Eu vejo muito o lado positivo. Como linguistas nos perguntamos o tempo todo como é que a mente humana conseguiu criar essa variedade louca de expressões, essa enorme complexidade. Essa é a nossa grande questão.

 

>Ciência precisa avançar para embasar política climática (AIT, JC)

>
JC e-mail 4236, de 12 de Abril de 2011

Os investimentos em pesquisa sobre mudanças climáticas nos últimos anos possibilitaram que o País fosse um dos primeiros a estabelecer metas de redução de emissões de gases de efeito estufa (GEE).

Agora, a ciência brasileira precisa avançar mais para subsidiar as políticas públicas de adaptação da sociedade e dos setores econômicos às mudanças do clima.

Redução de emissões – A avaliação foi feita pelo secretário de Políticas e Programas de Pesquisa e Desenvolvimento do Ministério da Ciência e Tecnologia (MCT), Carlos Nobre, na abertura da 4ª Conferência Regional sobre Mudanças Globais: O plano brasileiro para o futuro sustentável, realizada no Memorial da América Latina, em São Paulo (SP).

Em função desses investimentos governamentais em pesquisa, de acordo com Nobre, foi possível o Brasil se tornar o primeiro País em desenvolvimento a fixar metas de redução de emissões de GEE entre 36% a 39% até 2020, conforme estabelecido pelo Plano Nacional de Mudanças Climáticas, sancionado no fim de 2009.
“Essa foi uma área em que avançamos mais, com o estabelecimento de metas setoriais de redução de emissões. A mais significativa, obviamente, é a redução de 80% no índice de desmatamento da Amazônia, em que o Brasil tem conseguido obter avanços notáveis nos últimos seis anos. Mas um desafio ainda maior será reduzir em pelo menos 40% o desmatamento no Cerrado, que é atualmente a maior fronteira agrícola brasileira”, disse.

Medidas de adaptação às mudanças climáticas – Ainda que as emissões de GEE sejam reduzidas rapidamente, a temperatura do planeta ainda continuará subindo nos próximos séculos. Por conta disso, o próximo passo que deve ser dado é desenvolver medidas de adaptação que permitam que a sociedade e os setores econômicos se tornem mais resilientes às mudanças do clima, assinalou o cientista.

Uma das iniciativas recentes do Brasil nesse sentido é a criação do Sistema Nacional de Monitoramento e Alerta de Desastres Naturais, coordenado por Nobre. O sistema contará com centros estaduais e regionais de monitoramento e alerta de desastres naturais, além de um nacional, que deve ser inaugurado até o fim do ano para funcionar nas próximas chuvas de verão.

“Essa é uma medida concreta de adaptação aos eventos climáticos que devíamos ao País e que finalmente será tirado do papel e se tornará uma realidade”, afirmou. De acordo com Nobre, a adaptação às mudanças climáticas também é uma das metas do segundo Plano de Ação em Ciência, Tecnologia e Inovação (Pacti), em elaboração pelo governo federal.

O plano estabelecerá grandes metas que o País almeja atingir em ciência, tecnologia e inovação no período de 2012 a 2015. Entre elas estão fazer com que o País tenha autonomia na geração de cenários climáticos futuros, especialmente em projeções de extremos climáticos em escala regional, que possam apoiar os planos regionais e setoriais de adaptação às mudanças climáticas, como os da agricultura.

“É fundamental adaptar a agricultura às mudanças climáticas para a segurança alimentar não só do País, mas também do mundo. O Brasil já é o segundo maior exportador de commodities agrícolas e, em menos de 10 anos, possivelmente se tornará o primeiro”, apontou Nobre.

Protagonista sem liderança – Na opinião de cientistas que participaram da abertura do evento, o Brasil assumiu o protagonismo nas discussões sobre redução das emissões de gases de efeito estufa. Mas, para o professor de relações internacionais da Universidade de Brasília (UnB), Eduardo José Viola, a capacidade de liderança do País nas negociações climáticas é limitada.

“O Brasil poderá assumir uma posição mais ativa nas negociações climáticas devido à sincronização das ações entre o MCT e o Ministério do Meio Ambiente. Mas o País é uma potência climática média. As grandes potências climáticas que podem solucionar o problema são os Estados Unidos, União Europeia e China, que, juntas, são responsáveis por 60% das emissões globais”, disse Viola.

Para Guy Pierre Brasseur, do National Center for Atmospheric Center (Ncar), dos Estados Unidos, a decisão sobre reduzir as emissões globais de GEE não é um problema científico, mas uma escolha política. E uma das maneiras de se conseguir fazer com que os líderes dos países assumam esse compromisso seria por meio da pressão popular. “Os resultados das negociações climáticas têm sido uma catástrofe, e os avanços foram muito limitados. Temos que pensar em como melhorar a comunicação da ciência sobre os impactos das mudanças climáticas porque a decisão dos países em reduzir suas emissões só será possível por meio da pressão exercida por seus cidadãos”, afirmou.
(Agência Inovação Tecnológica)

>Futuro da previsão do clima no Brasil em xeque (JC, Globo)

>
JC e-mail 4232, de 05 de Abril de 2011.

Escassez de meteorologistas coloca em risco a previsão e a prevenção de catástrofes.

A falta de profissionais qualificados que façam previsões meteorológicas e se dediquem à parte operacional da meteorologia preocupa especialistas da área. Na 4ª Conferência Regional sobre Mudanças Globais, iniciada ontem em São Paulo, o pesquisador do Instituto Nacional de Pesquisas Espaciais (Inpe) José Antonio Marengo disse que o Brasil tem muitos profissionais que se dedicam à pesquisa acadêmica, mas faltam especialistas para fazer a leitura dos dados e mapas.

Segundo ele, por enquanto, isso não prejudica as previsões meteorológicas no país, mas em cinco anos este déficit pode causar transtornos.

– Necessitamos de pessoas mais novas, jovens. Temos poucos profissionais que se dedicam à fazer a previsão e mapas. As pessoas estão se aposentando e outras preferem trabalhar na parte acadêmica – disse.

Para ele, a parte operacional da meteorologia não atrai muitos profissionais porque eles consideram o trabalho pouco interessante e instigante:

– É uma parte chata, como um médico que trabalha no pronto-socorro e um que trabalha no Albert Einstein. Já o físico da Universidade de São Paulo e integrante do Painel
Brasileiro de Mudanças Climáticas Paulo Artaxo Netto se preocupa com o fato de o país ainda não estar preparado para fazer melhores previsões de enchentes e secas para minimizar os impactos de desastres naturais:

– Os modelos climáticos feitos no Brasil não necessariamente atendem as necessidades das defesas civis. Não adianta dizer que no estado de São Paulo vai chover 200 milímetros. Isso vai acontecer em Araraquara ou em Santos? Precisamos ter uma alta resolução espacial e previsões com horas de antecedência.

Os especialistas estão confiantes na entrada em funcionamento e eficácia do Sistema Nacional de Monitoramento e Alerta de Desastres Naturais, elaborado pelo Ministério da Ciência e Tecnologia e que deve começar a operar até o fim do ano. Mas o climatologista Carlos Nobre, secretário de Políticas e Programas de Pesquisa e Desenvolvimento do MCT, admitiu que isso ainda é um desafio.

– Temos que diminuir o número de vítimas nas catástrofes por meio da ciência – disse.
(O Globo)

>Teia neural da esquizofrenia (FAPESP)

>
14/4/2011

Revista Pesquisa FAPESP – Pesquisadores norte-americanos deram um passo importante para identificar as causas biológicas da esquizofrenia, conjunto de transtornos mentais graves que atingem cerca de 60 milhões de pessoas no mundo – por volta de 1,8 milhão no Brasil – e se caracterizam por distanciamento emocional da realidade, pensamento desordenado, crenças falsas (delírios) e ilusões (alucinações) visuais ou auditivas.

Alguns desses sinais são semelhantes aos apresentados pelo jovem Wellington Menezes de Oliveira, de 23 anos, que no início de abril matou 12 crianças em uma escola no bairro do Realengo, no Rio de Janeiro, antes de se suicidar.

A equipe coordenada pelo neurocientista Fred Gage, do Instituto Salk de Estudos Biológicos, na Califórnia, conseguiu transformar células da pele de pessoas com esquizofrenia em células mais imaturas e versáteis. Chamadas de células-tronco de pluripotência induzida (iPS, na sigla em inglês), essas células foram depois convertidas em neurônios, uma das variedades de células do tecido cerebral. O estudo foi publicado nesta quinta-feira no site da revista Nature.

Essa mudança forçada de função gerou o que os pesquisadores acreditam ser cópias fiéis, ao menos do ponto de vista genético, das células do cérebro de quem tem esquizofrenia, que, por óbvios motivos éticos, antes só podiam ser analisadas depois da morte.

Como são geneticamente idênticos às células cerebrais de quem desenvolveu esquizofrenia, esses neurônios fabricados em laboratório são importantes para compreender a enfermidade, que tem importante componente genético, porque permite aos pesquisadores desprezar a influência de fatores ambientais, como o uso de medicamentos ou o contexto social em que as pessoas vivem.

“Não se sabe quanto o ambiente contribui para a doença. Mas, ao fazer esses neurônios crescerem em laboratório, podemos eliminar o ambiente da equação e começar a focar nos problemas biológicos”, disse Kristen Brennand, pesquisadora do grupo de Gage e primeira autora do artigo.

Segundo Gage, é a primeira vez que se consegue criar, a partir de células de seres humanos vivos, um modelo experimental de uma doença mental complexa.

“Esse modelo não apenas nos dá a oportunidade de olhar para neurônios vivos de pacientes com esquizofrenia e de pessoas saudáveis, como também deve permitir entender melhor os mecanismos da doença e avaliar medicamentos que podem revertê-la”, disse o cientista que há alguns anos demonstrou que o cérebro adulto continua a produzir neurônios.

Depois de converter em laboratório células da pele em neurônios, Brennand realizou testes para verificar se eles se comportavam de fato como os neurônios originais e eram capazes de transmitir informação de uma célula a outra. As células cerebrais obtidas a partir de células da pele (fibroblastos) funcionavam, sim, como neurônios. “Em vários sentidos, os neurônios ‘esquizofrênicos’ são indistintos dos saudáveis”, disse.

Mas há diferenças. A pesquisadora notou que os novos neurônios de quem tinha esquizofrenia apresentavam menos ramificações do que os das pessoas saudáveis. Essas ramificações são importantes porque permitem a comunicação de uma célula cerebral com outra – e geralmente são encontradas em menor número em estudos feitos com modelo animal da doença e em análises de neurônios extraídos após a morte de pacientes com esquizofrenia.

Nos neurônios dos esquizofrênicos, a atividade genética diferiu daquela observada nas pessoas sem a doença. Os autores do estudo viram que o nível de ativação de 596 genes era desigual nos dois grupos: 271 genes eram mais ativos nas pessoas com esquizofrenia – e 325 menos expressos – do que nas pessoas sem o problema.

Em um estágio seguinte, Brennand deixou os fibroblastos convertidos em neurônios em cinco soluções diferentes, cada uma contendo um dos cinco medicamentos mais usados para tratar esquizofrenia – os antipsicóticos clozapina, loxapina, olanzapina, risperidona e tioridazina.

Dos cinco, apenas a loxapina foi capaz de reverter o efeito da ativação anormal dos genes e permitir o crescimento de mais ramificações nos neurônios. Esses resultados, porém, não indicam que os outros quatro compostos não sejam eficientes. “A otimização da concentração e do tempo de administração pode aumentar os efeitos das outras medicações antipsicóticas”, escreveram os pesquisadores.

“Esses medicamentos estão fazendo mais do que achávamos que fossem capazes de fazer. Pela primeira vez temos um modelo que permite estudar como os antipsicóticos agem em neurônios vivos e geneticamente idênticos aos de paciente”, disse a pesquisadora. Isso é importante porque torna possível comparar os sinais da evolução clínica da doença com os efeitos farmacológicos.

“Por muito tempo as doenças mentais foram vistas como um problema social ou ambiental, e as pessoas achavam que os pacientes poderiam superá-las caso se esforçassem. Estamos mostrando que algumas disfunções biológicas reais nos neurônios são independentes do ambiente”, disse Gage.

O artigo Modelling schizophrenia using human induced pluripotent stem cells (doi:10.1038/nature09915), de Fred Gage e outros, pode ser lido por assinantes da Nature em http://www.nature.com.

Imprensa versus governo (Fapesp)


Imprensa versus governo
Rede da Democracia, formada por três grandes jornais, teve papel na queda de Jango
Carla Rodrigues
Edição Impressa 181 – Março 2011

© AGÊNCIA ESTADO
Tropas no comício da Central do Brasil

No jargão da imprensa escrita, “retranca” é a classificação do assunto contido em uma página, editoria ou em um conjunto de textos jornalísticos. Sob a retranca “Na Rede da Democracia”, entre outubro de 1963 e março de 1964, os três mais importantes jornais do país – O Jornal, dos Diários Associados, Jornal do Brasil, da família Nascimento Brito, e O Globo, da família Marinho – se uniram em torno de uma pauta em comum: a defesa do nacionalismo contra o comunismo, a crítica à ineficiência do Congresso, a falta de legitimidade do presidente João Goulart, o perigo de o governo ceder às pressões das manifestações de massa e dos movimentos populares. Diariamente publicada nos três diários e veiculada à noite nas suas respectivas emissoras de rádio, a Rede da Democracia ajudou a enfraquecer e derrubar o governo de Jango, deposto pelos militares que tomaram o poder em 1964.

Os acontecimentos políticos posteriores a esse momento da história brasileira têm sido muito registrados e debatidos. Mas sobre o consórcio formalizado pelos jornais sob a denominação de Rede da Democracia pouco se estudou. Foi nesse vazio que trabalhou o historiador Aloysio Castelo de Carvalho em sua pesquisa de pós-doutorado em história social na Universidade de São Paulo (USP), cujo resultado está sendo lançado no livro A Rede da Democracia: O Globo, O Jornal e Jornal do Brasil na queda do governo Goulart (1961-1964), coedição entre a NitPress e a Editora da UFF (Universidade Federal Fluminense), onde Carvalho também é professor.

“A Rede da Democracia está incluída num debate sobre a relação entre os jornais e o governo de João Goulart”, diz o pesquisador. Relação que evoluiu de maneira peculiar: em agosto de 1961, quando Jânio Quadros renunciou, os três jornais defenderam uma posição antigolpe, afirmando a legalidade da posse do vice João Goulart. Dois anos depois, a Rede da Democracia cerrava fileiras contra o presidente.

Em 1961 coube ao então governador do Rio Grande do Sul, Leonel Brizola, montar a chamada Rede da Legalidade, que transmitia, a partir do porão do Palácio Piratini, discursos do aliado de Jango reproduzidos em ondas curtas por dezenas de emissoras do interior e de outros estados. O modelo de resistência brizolista inspiraria, anos depois, o empresário Assis Chateaubriand, dono dos Diários Associados. As rádios Tupi, Globo e Jornal do Brasil passaram a transmitir em conjunto, a partir de 1963, pronunciamentos que no dia seguinte eram publicados nos jornais com a mesma retranca. Alguns títulos ilustram o conteúdo editorial da Rede: “União Nacional dos Estudantes é um antro de delinquentes políticos”, “O dispositivo chamado sindical é na realidade dispositivo comunista”, “Dias graves se aproximam se não for repelida a invasão marxista”, “Ministério do Trabalho comanda as greves que agitam nosso país”, “Nosso país não está só ameaçado, mas comprometido com o comunismo” são exemplos da tomada de posição da imprensa diante do governo de Jango. Entre os signatários estavam parlamentares da oposição e  donos de jornais que, na visão de Carvalho, se arvoraram na pretensão de se tornarem atores políticos.

© AGÊNCIA ESTADO
Tanques do Exército no Rio no dia do golpe militar

Padrão – Foi em busca de compreender qual foi o papel da imprensa na queda de Jango e na emergência do governo militar que Carvalho acabou encontrando um padrão discursivo formado por quatro principais eixos: uma concepção valorativa da própria imprensa, que se atribui o papel de porta-voz da opinião pública; o temor de que o ingresso das massas no sistema político seria um risco para o país; a falta de confiança no presidente da República quando ele conta com apoio popular; a falta de confiança nas instituições políticas, inclusive no Congresso e no Senado, contribuindo para reforçar a percepção do papel da imprensa como fiscal dessas mesmas instituições e afirmando a importância da liberdade de imprensa.

No período Jango, os três jornais unificados sob a Rede da Democracia viam a sociedade brasileira como uma emergente sociedade de massas, mas resistiam ao ingresso dessa massa na participação política, que passou a se dar pela via dos movimentos sociais e das manifestações populares. “Os jornais reagiram de forma conservadora, afirmando que a única participação política legítima era pelas formas institucionais”, lembra Carvalho.
No entanto, essas formas institucionais estavam fechadas à massa de trabalhadores que, no processo de urbanização e industrialização, chegava à vida política. O voto não era permitido aos analfabetos, por exemplo, e em 1963 metade da população brasileira não sabia ler nem escrever. Daí a grande importância da Rede da Democracia em veicular suas ideias no rádio, a fim de ganhar adesões também entre as massas como parte de um processo que, para Carvalho, faz parte da competição da imprensa para representar a opinião pública. “É uma visão publicista de opinião pública, que desvaloriza a expressão pela via do voto ou das instituições”, explica o professor.

Embora reconheça que há períodos muito negativos, Eugênio Bucci, professor de jornalismo da Escola Superior de Propaganda e Marketing (ESPM), considera que generalizações sobre a relação entre governo e imprensa enfrentam dois problemas: o primeiro, a dificuldade de caracterizar a imprensa como uma entidade de condutas unificadas. Há, lembra ele, pluralidade e diversidade. Que poderia ser maior, reconhece, mas que já avançou muito em relação aos anos 1960. No cenário atual, não apenas jornais, mas rádios, TVs, sites de internet formam um mosaico de veículos de comunicação com expressão de pontos de vista muito distintos entre si.

“Apesar do comportamento de certos veículos da chamada grande imprensa, há mais diversidade, mais pluralidade. Sobrevive entre nós uma mentalidade que tem repercussão na imprensa e rejeita tudo aquilo que emerge do povo iletrado, essa mistura de raça e cor considerada ruim”, argumenta Bucci. Para ele, é preciso ter muito cuidado para não cair num modelo linear, segundo o qual se pode classificar a imprensa de boa ou ruim.

Lua de mel – O que leva Bucci a discutir o segundo problema: como se tem visto no noticiário após a posse da presidente Dilma Rousseff, há períodos de verdadeira lua de mel entre jornais e governo. Foi assim, por exemplo, no início do primeiro mandato de Lula, lembra Bucci. Segundo ele, o tratamento que o governo Lula recebeu varia muito entre os períodos e entre os veículos. “A TV Record, por exemplo, compete com a TV Globo na cobertura crítica do governo”, exemplifica, lembrando que blogs e sites, como o IG, exercem papel importante em contrapontos ao discurso dos grandes jornais e também formam opinião.

© FOLHAPRESS
Goulart fala com multidão na Central do Brasil

O fato de a internet ainda não ser uma mídia de massa faz com que o cientista político Paulo Baía, professor da Universidade Estadual do Rio de Janeiro (UFRJ), discorde da capacidade desses novos meios de comunicação de democratizar a informação e se constituir numa via alternativa à grande imprensa. Para ele, o mecanismo fundamental que mantém a relação umbilical entre poder e imprensa é a lei das concessões de rádio e TV. Por isso, acredita que a única forma de alterar o que chama de “relação bilateral” entre Estado e meios de comunicação é uma revisão na lei das concessões. “É preciso assegurar que qualquer grupo social possa se expressar com autonomia”, defende Baía.

A autonomia da imprensa sempre esteve em debate em tempos de crise. Foi assim nos anos 1960, quando a Rede da Democracia pregava seu direito à liberdade de imprensa como forma de garantir a expressão de um determinado ponto de vista em relação ao governo Jango e compartilhado pelos três jornais que integravam o consórcio. O debate sobre liberdade de imprensa esteve novamente em pauta durante os dois mandatos do governo Lula, e com ele veio a discussão sobre mecanismos de controle social da informação. “A liberdade de imprensa é um eixo discursivo dos jornais quando eles querem se valorizar como único canal de expressão da opinião pública”, alega Carvalho. “Lula é um produto da liberdade de imprensa”, contrapõe Bucci, lembrando que foi a abertura política e, com ela, o fim da censura à imprensa que permitiram o contato entre o Partido dos Trabalhadores e o eleitorado.

Carvalho conclui que, quando se sentem ameaçados, os jornais formam alianças formais, como a Rede da Democracia, para fazer ecoar o discurso liberal e conservador. “Vai chegar o momento em que a imprensa será objeto de crítica das outras instituições. E os jornais não poderão mais ser irresponsáveis e manipuladores”, aposta Carvalho.

 

 

Literatura da fome: projeto promove encontro inusitado (Faperj)

Danielle Kiffer

Para Ana Paula, Glauber Rocha tem estilo similar ao de Artaud, por vincular a escrita ao traço pictórico e reinventar a gramática.

Você tem fome de quê?”. A música Comida, da banda Titãs, já colocava há algum tempo o questionamento sobre as inúmeras fomes que sentimos, que vão desde o desejo de consumir arte à necessidade da própria comida. Porém, é a abordagem do sentido literal da palavra que dá forma a um encontro que parecia improvável: entre os escritores brasileiros Josué de Castro e Graciliano Ramos, o cineasta Glauber Rocha e o poeta, ator e diretor teatral francês Antonin Artaud. O projeto “O corpo extremo: da escrita limite ao limite da escrita”, desenvolvido pela professora Ana Paula Veiga Kiffer, da Pontifícia Universidade Católica (PUC-Rio), analisa a questão da fome e da loucura de Antonin Artaud, usando como referência a fundamentação crítica e teórica dos três autores brasileiros.

Para a professora, que é Jovem Cientista do Nosso Estado, da FAPERJ, poucas semelhanças unem os quatro escritores, além do foco no tema que os reúne. “Todos retrataram a fome, mas de maneiras diversas. Em termos de estilo, acredito que Glauber Rocha é o que mais se aproxima de Artaud, pois ambos extrapolam a escrita e a vinculam ao traço pictórico, reinventando a gramática em suas obras, o que mostra a necessidade de criar um modo de dizer o que sentiam que ia além das palavras”, detalha. Dos quatro pensadores, por exemplo, o único que realmente vivenciou a fome foi o poeta francês, como explica Ana Paula: “Apesar de vir de uma família com boas condições financeiras, Artaud experimentou a pobreza e a fome em diferentes fases da vida. Ele viveu a decadência e a carência material do período entre a primeira e a segunda guerras mundiais na Europa e durante sua internação em instituições psiquiátricas, onde a alimentação era escassa. Durante a Segunda Guerra, época de sua internação, a fome foi utilizada como forma de extermínio nessas instituições.”

Com o romance Homens e Caranguejos, Josué de Castro foi inspiração para o
movimento conhecido como mangue beat.

Uma das primeiras teorias de Artaud que tem relação com a fome é o manifesto Teatro da Crueldade, de 1934. Nele, o autor clama por um teatro e uma cultura cujas forças vivas fossem idênticas às da fome. Ainda nos anos 1930, ele escreveu o poema intitulado A fome não espera, em que denuncia a decadência político-econômica da Europa da época. No poema, Artaud incita o leitor a transformar sua fome em seu próprio tesouro. Como destaca Ana Paula, há, no texto, uma grande semelhança com a Estétyka da Fome, de Glauber Rocha, na qual ele também nos desafia a fazer da nossa precariedade a nossa força. “Artaud é um autor radical como Glauber também é radical. O discurso de ambos não tem nada de vitimização, muito pelo contrário. É, sim, transformador, um estímulo à potência, à afirmação de uma diferença e às características que o povo brasileiro possui. Muitas vezes, de onde muito pouco se espera, há grandes movimentos de superação. Um exemplo que podemos citar, aqui mesmo no Rio de Janeiro, é o caso da Coopa-Roca, uma cooperativa de mulheres da favela da Rocinha, que fez do fuxico sua arte, sua forma de sobrevivência. E tudo com muito sucesso.”

Apesar de não ser mais um assunto discutido na intelectualidade, a literatura sobre a fome, no Brasil, gerou frutos que rendem até hoje. Um grande exemplo vem do escritor e médico Josué de Castro. Uma de suas principais obras e seu único romance, Homens e Caranguejos, publicado em 1967, influenciou, quase trinta anos mais tarde, a formulação do movimento musical mangue beat, liderado por Chico Science e Fred Zero Quatro, na década de 1990,  em Recife. Se Josué de Castro compara os homens, catadores de caranguejo, aos próprios crustáceos, ambos famintos e mergulhados na lama, Chico Science fala do mangue e sua sociedade marginal de homens-caranguejo, juntando na mesma panela musical, funk, hip hop e influências regionais.

Durante suas pesquisas em obras literárias, Ana Paula observou que a relação entre a loucura e a fome é estreita. Em Vidas Secas, de Graciliano Ramos, por exemplo, os personagens centrais da trama que se passa no sertão nordestino brasileiro, sentem tanta fome que passam a delirar. “Pode-se dizer que a fome leva à loucura e a loucura pode levar a um tal estado de abandono e indigência, em que a fome certamente estará presente. Estas duas características estão muito próximas.”

Também a experiência do francês Artaud, durante o período em que ficou internado, tanto no asilo de Rodez quanto em Ivry-Sur-Seine, na França, foi registrada, de forma original e única, em cadernos escolares. “Nestes cadernos, podemos perceber a materialização da fome vivida, que transforma essa experiência em um discurso que traz um novo modo de dizer, que parece tratar a linguagem como algo concreto e material.” Para Ana Paula, a discussão sobre a fome deve ser retomada sob outro ângulo, encarando-a e a outros problemas da nossa sociedade, mas substituindo a vitimização pela superação.