Arquivo da categoria: linguagem

>On Birth Certificates, Climate Risk and an Inconvenient Mind (N.Y. Times, Dot Earth Blog)

April 28, 2011, 9:23 AM

As Donald Trump tries to milk a last bit of publicity out of the failed “birther” challenge to President Obama, it’s worth reading a fresh take by an Australian psychologist on the deep roots of denial in people with fundamentalist passions of whatever stripe. Here’s an excerpt:

[I]deology trumps facts.
And it doesn’t matter what the ideology is, whether socialism, any brand of fundamentalist religion, or free-market extremism. The psychological literature shows quite consistently that a threat to one’s worldview is more than likely met by a dismissal of facts, however strong the evidence. Indeed, the stronger the evidence, the greater the threat — and hence the greater the denial.
In its own bizarre way, then, the rising noise level of climate denial provides further evidence that global warming resulting from human CO2 emissions is indeed a fact, however inconvenient it may be. Read the rest.
The piece, published today on the Australian news blog The Drum, is byStephan Lewandowsky of the School of Psychology at the University of Western Australia.
Of course, just being aware that ideology can deeply skew how people filter facts and respond to risks begs the question of how to make progress in the face of the wide societal divisions this pattern creates.
It’s easy to forget that there’s been plenty of climate denial to go around. It took a decade for those seeking a rising price on carbon dioxide emissions as a means to transform American and global energy norms to realize that a price sufficient to drive the change was a political impossibility.
As a new paper in the Proceedings of the National Academy of Sciences found, even when greenhouse-gas emissions caps were put in place, trade with unregulated countries simply shifted the brunt of the emissions elsewhere.
When he was Britain’s prime minister, Tony Blair put it this way in 2005: “The blunt truth about the politics of climate change is that no country will want to sacrifice its economy in order to meet this challenge.”
My choice, of course, is to attack the two-pronged energy challenge the world faces with a sustained energy quest, nudged and nurtured from the top but mainly fostered from the ground up.
And I’m aware I still suffer from a hint of “scientism,” even “rational optimism,” in expecting that this argument can catch on, but so be it.
10:11 a.m. | Updated For much more on the behavioral factors that shape the human struggle over climate policy, I encourage you to explore “Living in Denial: Climate Change, Emotions, and Everyday Life,” a new book by Kari Marie Norgaard, a sociologist who has just moved from Whitman College to the University of Oregon.
Robert Brulle of Drexel University brought the book to my attention several months ago, and I invited him to do a Dot Earth “Book Report,” to kick off a discussion of Norgaard’s insights, which emerge from years of research she conducted on climate attitudes in a rural community in western Norway. (I’d first heard of of Norgaard’s research while reporting my 2007 article on behavior and climate risk.)
(I also encourage you to read the review in the journal Nature Climate Changeby Mike Hulme, a professor of climate at the University of East Anglia and the author of “Why We Disagree about Climate Change.”)
Here’s Brulle’s reaction to Norgaard’s book:
As a sociologist and longtime student of human responses to environmental problems, I’ve seen reams of analysis come and go on why we get some things right and some very wrong. A new book by Kari Norgaard has done the best job yet of cutting to the core on our seeming inability to grasp and meaningfully respond to human-driven climate change.
As the science of climate change has become stronger and more dire, media coverage, public opinion, and government actions regarding this issue has declined. At the same time, climate denial positions have become increasingly accepted, despite a lack of scientific evidence. Even among the public that accepts the science of global climate change, the dire circumstances we now face in this regard are consistently downplayed, and the logical implications that follow from the scientific analysis of the necessity to enact swift and aggressive measures to combat climate change are not followed through either intellectually or politically.
Instead, at best, a series of half measures have been proposed, which though they may be comforting, are essentially symbolic measures that allow the status quo to continue unchanged, and thus will not adequately address the issue of global climate change. Thus attempts to address climate change have encountered significant cultural, political, and economic barriers that have not been overcome. While there have been several attempts to explain the lack of meaningful action regarding climate change, these models have not developed into an integrated and empirically supported approach. Additionally, many of these models are based in an individualistic perspective, and thus engage in a form of psychological reductionism. Finally, none of these models are able to coherently explain the inter-related phenomena regarding climate change that is occurring at the individual, small group, institutional, and societal levels.
To move beyond the limitations of these approaches, Dr. Norgaard develops a sociological model that views the response to global climate change as a social process. One of the fundamental insights of sociology is that individuals are part of a larger structure of cultural and social interactions. Thus through the socialization processes, we construct certain ways of life and understandings of the world that guide our everyday interactions. Individuals become the carriers of the orientations and practices that constitute our social order. A disjuncture between our taken-for-granted way of living, such as the new behaviors necessitated by climate change, are experienced at the individual level as identity threats, at the institutional level as challenges to social cohesion, and at the societal level as legitimation threats. When this occurs, there are powerful processes that work at the psychological, institutional, and overall society level to maintain the current orientations and ensure social stability. Taken together, these social processes create cultural and social stability. They also create, from the view of climate change, a form of social inertia that inhibits rapid social change.
From this sociological perspective, Dr. Norgaard takes on the apparent paradox of climate change and public awareness; as our knowledge about the nature and seriousness of climate change has increased, our political and social engagement with the issue has declined. Why? Dr. Norgaard’s answer (crudely put) is that our personality structures and social norms are so thoroughly enmeshed with a growth economy based on fossil fuels that any consideration of the need to change our way of life to deal with climate change evokes powerful emotions of anxiety and desires to avoid this issue. This avoidance behavior is socially reinforced by collective group norms, as well as the messages we receive from the mass media and the political elite. She develops this thesis through the use of an impressive array of sociological theory, including the sociology of the emotions, cultural sociology, and political economy. Additionally, she utilizes specific theoretical approaches regarding the social denial of catastrophic risk. Here she skillfully repurposes the literature on nuclear war and collective denial to the issue of climate change. This is a unique and insightful use of this literature. Thus her theoretical contribution is substantial and original. She then illustrates this process through a thick qualitative analysis based on participant observation in Norway. In her analysis of conversations, she illustrates how collective denial of climate change takes place through conversations. This provided powerful ground truth evidence of her theoretical framework.
This is an extremely important intellectual contribution. Research on climate change and culture has been primarily focused on individual attitudinal change. This work brings a sociological perspective to our understanding of individual and collective responses to climate change information, and opens up a new research area. It also has important practical implications. Most climate change communication efforts are based on conveying information to individuals. The assumption is that individuals will take in this information and then act rationally in their own interests. Dr. Norgaard’s analysis course charts a different approach. As she demonstrates, it is not a lack of information that inhibits action on climate change. Rather, the knowledge brings about unpleasant emotions and anxiety. Individuals and communities seek to restore a sense of equilibrium and stability, and thus engage in a form of denial which, although the basic facts of climate change are acknowledged, the logical conclusions and actions that follow from the information are minimized and not acted upon. This perspective calls for a much different approach to climate change communications, and defines a new agenda for this field.

[Note: people interested in this line of argument should follow the work done by researchers at the Center for Research on Environmental Decisions (CRED), at Columbia University, @] 

>Guarani é oficializado como segunda língua em município do Mato Grosso do Sul

Culturas Indígenas

Heli Espíndola
Comunicação – Secretaria da Identidade e da Diversidade Cultural do Ministério da Cultura

O guarani é a segunda língua oficial do município de Tacuru, no Mato Grosso do Sul. O município é o segundo do país a adotar um idioma indígena como língua oficial, depois da sanção, pelo presidente da República, Luiz Inácio Lula da Silva, no dia 24 de maio, do Projeto de lei que oficializa a língua guarani em Tacuru. Com a nova lei, os serviços públicos básicos na área de saúde e as campanhas de prevenção de doenças neste município devem, a partir de agora, prestar informações em guarani e em português.

O primeiro município do Brasil a adotar idioma indígena como língua oficial, além do português, foi São Gabriel da Cachoeira, localizado no extremo norte do Amazonas. Além do português, São Gabriel tem três línguas indígenas oficiais: o Nheengatu, o Tukano e o Baniwa.

Em Tacuru, pequeno município no cone sul do estado do Mato Grosso do Sul, próximo ao Paraguai formado por uma população de 9.554 habitantes, segundo estimativa do IBGE de 2009, 30% de seus habitantes são guarani residentes na aldeia de Jaguapiré, situada no município. A maioria dos 3.245 indígenas de Tacuru não é bilíngue, ou seja, fala somente o Guarani o que dificulta o acesso aos serviços públicos mais essenciais.

Com a nova lei, a Prefeitura de Tacuru se compromete a apoiar e a incentivar o ensino da língua guarani nas escolas e nos meios de comunicação do município. A lei estabelece também que nenhuma pessoa poderá ser discriminada em razão da língua oficial falada, devendo ser respeitada e valorizada as variedades da língua guarani, como o kaiowá, o ñandeva e o mbya.

O Ministério Público Federal do Mato Grosso do Sul (MPF-MS) elogiou a aprovação da medida e argumentou que o Brasil é multiétnico e que o português não pode ser considerado a única língua utilizada no país. O MPF lembrou que o Brasil é signatário do Pacto Internacional dos Direitos Civis e Políticos, que determina que, nos Estados onde haja minorias étnicas ou linguísticas, pessoas pertencentes a esses grupos não poderão ser privadas de usar sua própria língua.

A Convenção nº 169 da Organização Internacional do Trabalho (OIT) sobre os Povos Indígenas e Tribais determina, dentre outras coisas, que deverão ser adotadas medidas para garantir que os membros das minorias étnicas possam compreender e se fazer compreender em procedimentos legais, facilitando para eles, se for necessário, intérpretes ou outros meios eficazes.

Em Paranhos, também no Mato Grosso do Sul, tramita um projeto de lei semelhante ao aprovado em Tacuru, que propõe a oficialização do idioma guarani como segunda língua do município. Em Paranhos existem 4.250 indígenas guarani. Em todo o estado do Mato Grosso do Sul são 68.824 indígenas, divididos em 75 aldeias.

Para o secretário da Identidade e Diversidade Cultural/MinC, Américo Córdula, a oficialização da língua guarani em mais um município brasileiro vai de encontro à política cultural desenvolvida pelo Ministério da Cultura de proteção e proteção dos saberes tradicionais dos povos indígenas.

No mês de fevereiro (de 2 a 5), a SID/MinC realizou, juntamente com a Itaipu Binacional, o Encontro dos Povos Guarani da América do Sul – Aty Guasu Ñande Reko Resakã Yvy Rupa que reuniu cerca de 800 índios da etnia do Brasil, Bolívia, Paraguai e Argentina, em Diamante D”Oeste, no Paraná, para discutir formas de fortalecer o intercâmbio cultural entre as comunidades dos quatro países.

“Temos no Brasil uma comunidade de aproximadamente um milhão de indígenas, formada por 270 povos diferentes, falantes de mais de 180 línguas”, informa Córdula. Segundo ele, a população indígena brasileira é detentora de uma grande diversidade cultural, que deve ser protegida por seu caráter formador da nacionalidade brasileira. Com esse objetivo, a SID/MinC já realizou dois prêmios culturais (2006 e 2007) voltados para as comunidades tradicionais indígenas. Foram investidos R$ 3,6 milhões para a premiação de 182 projetos em todo o Brasil.

Este ano, no mês de março, foi criado o primeiro Colegiado de Culturas Indígenas, formado por 15 titulares e 15 suplentes representantes do segmento. No último dia 1º, foi eleito o conselheiro do Colegiado para o Plenário do Conselho Nacional de Políticas Culturais (CNPC).

Maria das Dores do Prado, da etnia Pankararu, foi escolhida para defender, junto ao CNPC, as políticas públicas voltadas para a valorização da cultura de todas as comunidades indígenas brasileiras. Um das reivindicações defendidas pelo segmento durante a Conferência Nacional de Cultural, realizada em março, quando se deu a eleição do Colegiado, é a manutenção de todas as línguas nativas.

>O futebol na terra do homem cordial

Fundação Getúlio Vargas abre as portas para o futebol e discute a relação do esporte com a sociedade, a literatura, a museologia e o cinema.

Thiago Camelo
Ciência Hoje, 02/06/2010

Estádio lotado. Um esporte que se confunde com as nossas emoções mais profundas e, por isso, ajuda a entender quem somos (foto: CC BY-NC 2.0 / Yan Boechat).

Kaká, Ronaldinho, Pelé e Tostão. Craques brasileiros, ídolos. Alguns mitos. Mitos com uma singularidade: têm apelidos de gente comum, diminutivos carinhosos. O que poderia ser apenas uma engraçada coincidência é, na verdade, prática repetida à exaustão com milhares de jogadores brasileiros. Então, fica a pergunta: o que será que os inhos no final do nome dos nossos ídolos dizem sobre o Brasil?

Para o ensaísta, compositor, pianista e – também – fã de futebol José Miguel Wisnik, os apelidos dos ídolos dizem muito sobre o que somos.

Os apelidos dos jogadores de futebol 
– Ronaldinho, Robinho, Jairzinho – 
dizem sobre como somos

Em um debate na sexta-feira passada que uniu futebol e ciências sociais e humanas na Fundação Getúlio Vargas (FGV – RJ), o autor do livro Veneno remédio (2008), obra que traça as linhas de encontro e desencontro entre o futebol e os hábitos dos brasileiros, disse:

– A gente não abre mão de chamar nossos heróis de forma infantil. É a nossa clássica mistura do privado e do público, como explica Sérgio Buarque em Raízes do Brasil. Temos medo de assumir responsabilidades. Não somos como os europeus. Quando eles entram em campo, vemos um desfile de sobrenomes.

Wisnik, que estava na mesa junto com o mediador Bernardo Buarque de Hollanda, era só parte de um evento. Durante todo o dia, falou-se também de temas como o Museu do Futebol, em São Paulo, e a relação do cinema com o esporte.

Dribles em palavras

É inegável, no entanto, que o ponto forte do dia foi a manhã, quando Wisnik falou. Quem já o viu dissertar, seja sobre música, política e outros assuntos, sabe o dom que o ensaísta tem com a palavra. E sabe também a sua capacidade – nada leviana – de fazer a ligação de tudo com qualquer coisa. Ouvindo-o, acreditamos que o mundo é feito de conexões.

Assim, a comparação do homem cordial (aquele que pretere as formalidades), de Sérgio Buarque, com o modo que o brasileiro trata o futebol não soa forçada. Também vai bem a analogia entre Macunaíma e Garrincha, “um avatar do personagem de Mário de Andrade”, segundo Wisnik.

Em época de Copa do Mundo, não houve como fugir da pergunta: qual seria o Brasil representado pela seleção de Dunga?

Wisnik responde no vídeo abaixo.

Um museu popular

Na mesa da tarde, foi a vez da diretora do Museu do Futebol, Clara Azevedo, contar sua experiência em São Paulo: tocar um museu destinado à preservação do esporte num lugar que se intitula ‘país do futebol’. E mais: organizar a empreitada dentro do estádio do Pacaembu, casa informal do Corinthians, o maior clube da cidade.

“É muito legal ter um museu sobre futebol 
dentro de um estádio. É a história 
acontecendo debaixo do seu nariz”

– É muito legal ter um museu sobre futebol dentro de um estádio. É a história acontecendo debaixo do seu nariz. Em jogos menores, o estádio funciona junto com o jogo, dá para sentir a vibração da arquibancada – conta Clara, que tem de lidar com algumas críticas. – Muita gente diz que o museu usa só tecnologia, que é um museu sem acervo. Acho isso uma besteira.

Oferta de acervo, aliás, é o que não falta ao Museu do Futebol. Clara diz que vários colecionadores já quiseram deixar aos cuidados dela suas preciosidades, que variam de “15 chaveiros do Corinthians” a “fotos antigas de jogos de futebol”.

A diretora do Museu de Futebol, Clara Azevedo, fala em evento na FGV. Para ela, o futebol permite que as pessoas vão ao museu e opinem com o sentimento de entender sobre o que estão falando (foto: Thiago Camelo).

A diretora acha a questão delicada, já que não pode lidar com tanta demanda para conservação de objetos. Mas avisa que anota todos os pedidos e, otimista, pondera:

– No fundo, é uma questão positiva. Porque em nenhum outro museu acontece de ter gente oferecendo peças de modo gratuito. É sinal de que o país tem uma preocupação com a memória.

A bola na tela

Na última mesa, estavam os professores Hernani Heffner e Victor de Melo, ambos para falar sobre os filmes que têm o futebol como temática. O cerne do discurso dos dois foram “as dificuldades” – os contratempos técnicos de se realizar um filme sobre futebol, esporte tão imprevisível que não comportaria o cinema – e a já conhecida incapacidade de se conservar películas no Brasil. (Esta última ‘dificuldade’ soa irônica num espaço em que, logo antes, a curadora do Museu do Futebol dera o seu relato sobre futebol e memória.)

Outra curiosidade, e agora sobre o evento como um todo, foi o assunto insistente nas três mesas: a imprevisibilidade do futebol e como ela afeta a área de interesse dos palestrantes. São muitos os relatos, mas fica a citação de Wisnik – o homem que acha o elo entre qualquer tema – do trecho da letra de O futebol, de Chico Buarque, que canta o que a mágica do drible pode fazer com a vida.

parábola do homem comum
roçando o céu
senhor chapéu

Thiago Camelo
Ciência Hoje On-line

>Quando é melhor ter sotaque estrangeiro

Accented teachers may be better for English language learners: study

By Valerie Strauss – The Answer Sheet
The Washington Post, May 5, 2010

A new study on how well students learn second languages from teachers with accents suggests that Arizona may be making a mistake by trying to remove heavily accented Hispanic teachers from classrooms filled with Hispanics trying to learn English.

School districts in Arizona are under orders from the state Department of Education to remove teachers who speak English with a very heavy accent (and/or whose speech is ungrammatical) from classrooms with students who are learning to speak English. Officials say they want students who don’t know much English to have teachers who can best model how to speak the language.

I wrote the other day about the difficulties in determining just how deep an accent has to be to be considered a problem, but here’s another side of the issue.

According to a new research study conducted in Israel, students learn a second language better from a teacher who speaks in the same accent as they do.

The study, published in the Journal of Psycholinguistic Research, said that students learning from a teacher with the same accent have an easier time understanding the material. They don’t have to spend time trying to understand the English in a different accent.

According to one of the report’s co-authors, Psychology Professor Zohar Eviatar, the concentration a student would have to summon to understand English in a different accent is considerably greater than if the student were a native English speaker.

In Arizona, that would mean that Hispanic kids studying English would learn better from teachers with Spanish accents.

The research, conducted at the University of Haifa, has implications not just for second language acquisition, but for how well students learn new subjects, Eviatar said.

The study was performed by researchers from different backgrounds. Dr. Raphiq Ibrahim is an Israeli Arab with an Arabic accent; Dr. Mark Leikin hails from the former Soviet Union and speaks with a Russian accent; Eviatar is a fluently bilingual Hebrew-English speaker. The team was both personally and professionally curious to know more about the accent effect.

Here’s how the study was done:

Sixty participants from ages 18 to 26 were chosen: Twenty were native Hebrew speakers, 20 were from the former Soviet Union, and 20 were Israeli Arabs who had started learning Hebrew at about seven years of age.

Researchers made recordings of Hebrew phrases where the last word was recorded with one of four different accents: Hebrew, Arabic, Russian or English. The students were then tested to see how long it took for them to recognize the Hebrew word in one of the four accents.

They found, according to the Innovation News Service, that the Hebrew speakers could decipher Hebrew words adequately regardless of the accent in which they were spoken, while the Russian and Arabic speakers needed more time to understand the Hebrew words presented in an accent foreign to their own.

The researchers feel that additional research is needed to determine just how much extra effort is involved in the attempt to process both an unfamiliar accent as well as new material.

The study suggests that English taught to Mexican students as a second language, for example, can be taught just as well by a Mexican teacher speaking English, as by a native American who’s been speaking English since birth.

“If you are an Arab, you would understand English better if taught by a native Arab English teacher,” Eviatar believes, adding, “This research isn’t even just about learning language but can be expanded to any topic like math or geography.

“If you have a Spanish accent and your teacher has a Chinese accent it will be much harder for you to concentrate on your studies,” Eviatar continues. “It’s best to learn from a teacher who teaches with a majority accent – the accent of the language being spoken, or an accent like your own. If not, it’s an added burden for the student.”

Someone should give this study to Arizona education officials.

>O maior túmulo do samba (isto é, as ciências cognitivas), levado ao absurdo

Next Big Thing in English: Knowing They Know That You Know

The New York Times, March 31, 2010

To illustrate what a growing number of literary scholars consider the most exciting area of new research, Lisa Zunshine, a professor of English at the University of Kentucky, refers to an episode from the TV series “Friends.”

(Follow closely now; this is about the science of English.) Phoebe and Rachel plot to play a joke on Monica and Chandler after they learn the two are secretly dating. The couple discover the prank and try to turn the tables, but Phoebe realizes this turnabout and once again tries to outwit them.

As Phoebe tells Rachel, “They don’t know that we know they know we know.”

This layered process of figuring out what someone else is thinking — of mind reading — is both a common literary device and an essential survival skill. Why human beings are equipped with this capacity and what particular brain functions enable them to do it are questions that have occupied primarily cognitive psychologists.

Now English professors and graduate students are asking them too. They say they’re convinced science not only offers unexpected insights into individual texts, but that it may help to answer fundamental questions about literature’s very existence: Why do we read fiction? Why do we care so passionately about nonexistent characters? What underlying mental processes are activated when we read?

Ms. Zunshine, whose specialty is 18th-century British literature, became familiar with the work of evolutionary psychologists while she was a graduate student at the University of California, Santa Barbara in the 1990s. “I thought this could be the most exciting thing I could ever learn,” she said.

At a time when university literature departments are confronting painful budget cuts, a moribund job market and pointed scrutiny about the purpose and value of an education in the humanities, the cross-pollination of English and psychology is a providing a revitalizing lift.

Jonathan Gottschall, who has written extensively about using evolutionary theory to explain fiction, said “it’s a new moment of hope” in an era when everyone is talking about “the death of the humanities.” To Mr. Gottschall a scientific approach can rescue literature departments from the malaise that has embraced them over the last decade and a half. Zealous enthusiasm for the politically charged and frequently arcane theories that energized departments in the 1970s, ’80s and early ’90s — Marxism, structuralism, psychoanalysis — has faded. Since then a new generation of scholars have been casting about for The Next Big Thing.

The brain may be it. Getting to the root of people’s fascination with fiction and fantasy, Mr. Gottschall said, is like “mapping wonderland.”

Literature, like other fields including history and political science, has looked to the technology of brain imaging and the principles of evolution to provide empirical evidence for unprovable theories.

Interest has bloomed during the last decade. Elaine Scarry, a professor of English at Harvard, has since 2000 hosted a seminar on cognitive theory and the arts. Over the years participants have explored, for example, how the visual cortex works in order to explain why Impressionist paintings give the appearance of shimmering. In a few weeks Stephen Kosslyn, a psychologist at Harvard, will give a talk about mental imagery and memory, both of which are invoked while reading.

Ms. Zunshine said that in 1999 she and about 10 others won approval from the Modern Language Association to form a discussion group on cognitive approaches to literature. Last year their members numbered more than 1,200. Unlike Mr. Gottschall, however, Ms. Zunshine sees cognitive approaches as building on other literary theories rather than replacing them.

Ms. Zunshine is particularly interested in what cognitive scientists call the theory of mind, which involves one person’s ability to interpret another person’s mental state and to pinpoint the source of a particular piece of information in order to assess its validity.

Jane Austen’s novels are frequently constructed around mistaken interpretations. In “Emma” the eponymous heroine assumes Mr. Elton’s attentions signal a romantic interest in her friend Harriet, though he is actually intent on marrying Emma. She similarly misinterprets the behavior of Frank Churchill and Mr. Knightly, and misses the true objects of their affections.

Humans can comfortably keep track of three different mental states at a time, Ms. Zunshine said. For example, the proposition “Peter said that Paul believed that Mary liked chocolate” is not too hard to follow. Add a fourth level, though, and it’s suddenly more difficult. And experiments have shown that at the fifth level understanding drops off by 60 percent, Ms. Zunshine said. Modernist authors like Virginia Woolf are especially challenging because she asks readers to keep up with six different mental states, or what the scholars call levels of intentionality.

Perhaps the human facility with three levels is related to the intrigues of sexual mating, Ms. Zunshine suggested. Do I think he is attracted to her or me? Whatever the root cause, Ms. Zunshine argues, people find the interaction of three minds compelling. “If I have some ideological agenda,” she said, “I would try to construct a narrative that involved a triangularization of minds, because that is something we find particularly satisfying.”

Ms. Zunshine is part of a research team composed of literary scholars and cognitive psychologists who are using snapshots of the brain at work to explore the mechanics of reading. The project, funded by the Teagle Foundation and hosted by the Haskins Laboratory in New Haven, is aimed at improving college-level reading skills.

“We begin by assuming that there is a difference between the kind of reading that people do when they read Marcel Proust or Henry James and a newspaper, that there is a value added cognitively when we read complex literary texts,” said Michael Holquist, professor emeritus of comparative literature at Yale, who is leading the project.

The team spent nearly a year figuring how one might test for complexity. What they came up with was mind reading — or how well an individual is able to track multiple sources. The pilot study, which he hopes will start later this spring, will involve 12 subjects. “Each will be put into the magnet” — an M.R.I. machine — “and given a set of texts of graduated complexity depending on the difficulty of source monitoring and we’ll watch what happens in the brain,” Mr. Holquist explained.

At the other end of the country Blakey Vermeule, an associate professor of English at Stanford, is examining theory of mind from a different perspective. She starts from the assumption that evolution had a hand in our love of fiction, and then goes on to examine the narrative technique known as “free indirect style,” which mingles the character’s voice with the narrator’s. Indirect style enables readers to inhabit two or even three mind-sets at a time.

This style, which became the hallmark of the novel beginning in the 19th century with Jane Austen, evolved because it satisfies our “intense interest in other people’s secret thoughts and motivations,” Ms. Vermeule said.

The road between the two cultures — science and literature — can go both ways. “Fiction provides a new perspective on what happens in evolution,” said William Flesch, a professor of English at Brandeis University.

To Mr. Flesch fictional accounts help explain how altruism evolved despite our selfish genes. Fictional heroes are what he calls “altruistic punishers,” people who right wrongs even if they personally have nothing to gain. “To give us an incentive to monitor and ensure cooperation, nature endows us with a pleasing sense of outrage” at cheaters, and delight when they are punished, Mr. Flesch argues. We enjoy fiction because it is teeming with altruistic punishers: Odysseus, Don Quixote, Hamlet, Hercule Poirot.

“It’s not that evolution gives us insight into fiction,” Mr. Flesch said, “but that fiction gives us insight into evolution.”

>Understanding Scientific Terms About Climate Change

Certainty vs. Uncertainty

Union of Concerned Scientists –
Last Revised: 03/17/10

Uncertainty is ubiquitous in our daily lives. We are uncertain about where to go to college, when and if to get married, who will play in the World Series, and so on.

To most of us, uncertainty means not knowing. To scientists, however, uncertainty is how well something is known. And, therein lies an important difference, especially when trying to understand what is known about climate change.

In science, there’s no such thing as absolute certainty. But, research reduces uncertainty. In many cases, theories have been tested and analyzed and examined so thoroughly that their chance of being wrong is infinitesimal. Other times, uncertainties linger despite lengthy research. In those cases, scientists make it their job to explain how well something is known. When gaps in knowledge exist, scientists qualify the evidence to ensure others don’t form conclusions that go beyond what is known.

Even though it may seem counterintuitive, scientists like to point out the level of uncertainty. Why? Because they want to be as transparent as possible and it shows how well certain phenomena are understood. Scientists have even developed their own phrasing regarding uncertainty, such as “very high confidence” (9 out of 10 chances of being correct) about a certain fact and “very likely” (90 chances out of 100) to describe the chance of an outcome.

Decision makers in our society use scientific input all the time. But they could make a critically wrong choice if the unknowns aren’t taken into account. For instance, city planners could build a levee too low or not evacuate enough coastal communities along an expected landfall zone of a hurricane if uncertainty is understated. For these reasons, uncertainty plays a key role in informing public policy.

However, this culture of transparency has caused problems for climate change science. Climate change deniers link certainty projections with not knowing anything. The truth is, science knows much about climate change. We have learned, for example, that the burning of fossil fuels and the clearing or burning of land creates carbon dioxide (CO2), which is released into the atmosphere. There is no uncertainty about this. We have learned that carbon dioxide and other greenhouse gases build up in the atmosphere and trap heat through the greenhouse effect.

Again, there is no uncertainty about this. Earth is warming, and scientists are very certain that humans are the main reason for the world’s temperature increase in the past 50 years.

Scientists know with very high confidence, or even greater certainty, that:

  • Human-induced warming influences physical and biological systems throughout the world
  • Sea levels are rising
  • Glaciers and permafrost are shrinking
  • Oceans are becoming more acidic
  • Ranges of plants and animals are shifting

Scientists are uncertain, however, about how much global warming will occur in the future (between 2.1 degrees and 11 degrees Fahrenheit by 2100). They are also uncertain how soon the sea ice habitat where the ringed seal lives will disappear. Curiously, much of this uncertainty has to do with—are you ready?—humans. The choices we make in the next decade, or so, to reduce emissions of heat-trapping gasses could prevent catastrophic climate change.

So, what’s the bottom line? Science has learned much about climate change. Science tells us what is more or less likely to be true. The latest climate science underscores that there’s an urgent need to reduce heat-trapping emissions. And that is certain.

Table: Language to describe confidence about facts and the likelihood of an outcome.  SOURCE: IPCC WGI (2007).

Terminology for describing confidence about facts
Very High confidence At least 9 out of 10 chance of being correct
High confidence About 8 out of 10 chance
Medium confidence About 5 out of 10 chance
Low confidence About 2 out of 10 chance
Very low confidence Less than 1 out of 10 chance

Terminology for describing likelihood of an outcome
Virtually certain More than 99 chances out of 100
Extremely likely More than 95 chances out of 100
Very likely More than 90 chances out of 100
Likely More than 65 chances out of 100
More likely than not More than 50 chances out of 100


Da apresentação do livro Biocommunication and Natural Genome Editing, de Günther Witzany (Springer, 2010):

Biocommunication occurs on three levels (A) intraorganismic, i.e. intra- and intercellular, (B) interorganismic, between the same or related species and (C) transorganismic, between organisms which are not related. The biocommunicative approach demonstrates both that cells, tissues, organs and organisms coordinate and organize by communication processes and genetic nucleotide sequence order in cellular and non-cellular genomes is structured language-like, i.e. follow combinatorial (syntactic), context-sensitive (pragmatic) and content-specific (semantic) rules. Without sign-mediated interactions no vital functions within and between organisms can be coordinated. Exactly this feature is absent in non-living matter.

Additionally the biocommunicative approach investigates natural genome editing competences of viruses. Natural genome editing from a biocommunicative perspective is competent agent-driven generation and integration of meaningful nucleotide sequences into pre-existing genomic content arrangements and the ability to (re)combine and (re)regulate them according to context-dependent (i.e. adaptational) purposes of the host organism.

>Rumo a uma Internet mais (linguisticamente) democrática

Órgão regulador aprova ‘maior mudança na internet’ em 40 anos

BBC Brasil – 30 de outubro, 2009 – 02:38 (Brasília)

A Icann (Internet Corporation for Assigned Names and Numbers), o órgão americano que administra a internet e os nomes dos sites, aprovou nesta sexta-feira, em Seul, na Coreia do Sul, o uso de caracteres não- romanos nos endereços da rede.

A medida está sendo considerada pela Icann como “a maior mudança na internet desde que foi inventada, há 40 anos” e reconhece o caráter global da rede.

A proposta foi aprovada em primeira instância em 2008 e permitirá que endereços sejam escritos em árabe, chinês ou japonês, por exemplo.

A agência passará a aceitar inscrições já em 16 de novembro e os primeiros domínios escritos em outros alfabetos já começarão a aparecer no início de 2010.


Segundo o porta-voz da Icann Rod Beckstrom, “mais da metade dos 1,6 bilhões de usuários de internet em todo o mundo usam outros alfabetos que não o latino”.

De acordo com o órgão, a nova medida ajudará esses usuários a manter sua identidade cultural no futuro.

“Esta mudança é muito necessária para os futuros usuários, na medida em que a internet continua a se expandir”, completou.

“O que criamos é um diferente sistema de tradução. Temos confiança de que ele funciona porque o temos testado por alguns anos”, disse Peter Dengate Thrush, da comissão encarregada de supervisionar o processo.

O sistema transforma endereços comuns, como “” em uma série de números que são posteriormente traduzidos para outros alfabetos.

Alguns países como China e Tailândia já introduziram sistemas que permitem que usuários escrevam endereços da rede em seus próprios idiomas, mas estas iniciativas não foram aprovadas internacionalmente ou funcionam em qualquer computador.

>A proibição da língua brasileira


TENDÊNCIAS/DEBATES – Opinião – Folha de S.Paulo
São Paulo, domingo, 20 de julho de 2003

Matéria publicada na Ilustrada de 18 de junho dava conta de que uma nota da Anatel, de agosto de 2002, sobre um programa radiofônico da FM Educativa, de Campo Grande (MS), transmitido na língua nheengatu, levantava a questão da sua legalidade em face de uma lei de 1963 que proíbe veiculações radiofônicas em língua estrangeira. A dúvida da Anatel põe em questão a legalidade da língua ainda falada por brasileiros de várias regiões do país e em suas variantes residuais ainda falada por milhões de brasileiros, especialmente crianças e iletrados, que só aparentemente falam o português oficial dos decretos.

O nheengatu, também conhecido como “língua geral”, a língua que se quer proibir, é a verdadeira língua nacional brasileira. O nheengatu foi desenvolvido pelos jesuítas nos séculos 16 e 17, com base no vocabulário e na pronúncia tupi, que era a língua das tribos da costa, tendo como referência a gramática da língua portuguesa, enriquecida com palavras portuguesas e espanholas. A língua geral foi usada correntemente pelos brasileiros de origem ibérica, como língua de conversação cotidiana, até o século 18, quando foi proibida pelo rei de Portugal. Mesmo assim continuou sendo falada.

Da língua geral ficou como remanescente o dialeto caipira, tema de dicionário e objeto de estudos linguísticos até recentes. Sobraram pronúncias da língua tupi, reduções e adaptações da língua portuguesa. Um jesuíta, no século 16, já observara que os índios da costa tinham grande dificuldade para pronunciar letras como o “l” e o “r”. Especialmente na finalização de palavras como “quintal” e “animal”; ou verbos como “falar”, “dizer” e “fugir”. Essas letras foram simplesmente suprimidas e as palavras transformadas em “quintá”, “animá”, “falá”, “dizê”, “fugi”.

Dificuldades também havia para pronunciar as consoantes dobradas. Daí que, no dialeto caipira, “orelha” tenha se tornado “orêia” (uma consoante em vez de três; quatro vogais em vez de três), “coalho” seja “coaio”, “colher” tenha virado “cuié”, “os olhos” sejam “o zóio”… E no Nordeste ainda se ouve a suave “fulô” no lugar da menos suave “flor”. Uma abundância de vogais em detrimento das consoantes, até mesmo com a introdução de vogais onde não existiam. Exatamente o contrário da evolução da sonoridade da língua em Portugal, em que predominam os ásperos sons das consoantes. No Brasil, a língua portuguesa ficou mais doce e mais lenta, mais descansada, justamente pela enorme influência das sonoridades da língua geral, o nheengatu.

Somos um povo bilíngue, e o reconhecimento desse bilinguismo seria fundamental no trabalho dos educadores

Nossa língua cotidiana está algo distanciada da língua portuguesa, que é a oficial e, num certo sentido, é uma língua importada. Não raro viajamos entre toponímicos tupi. Na cidade de São Paulo, transito regularmente entre o Butantã e Carapicuíba e o Embu, aonde levo meus alunos, periodicamente, para uma aula de rua. Ou os levo ao Museu Paulista, no Ipiranga, para outra aula, ou à Moóca, para observações etnográficas sobre uma festa italiana. Faço tudo isso dentro da língua tupi. Como posso ir do rio Guaíba à Paraíba ou ao Pará ou ao Piauí sem achar que estou falando uma língua estrangeira, que ela não é.

Em escolas rurais de povoados do Mato Grosso, do Pará e do Maranhão, observei um fato curioso. Uma vez que as crianças escrevem como falam, não é raro que acrescentem de preferência um “r” às palavras oxítonas, a letra usada como acento agudo: “ater”, em vez de “até”; “Joser”, em vez de “José”. Algo que tem sua curiosa legitimidade no modo como se escrevia oficialmente o português até meados do século 19, letras fazendo as vezes de acentos e sinais. A própria língua falada, no confronto com a escrita, oferece às crianças inteligentes a chave de adaptação de uma à outra: se elas dizem “falá” e vêm que a palavra escrita é “falar”, logo entendem que o “r” é aí acento, e não letra para ser pronunciada.

É comovente a reação dos jovens quando descobrem que são falantes do que resta de uma língua que já foi a língua do povo brasileiro e que conhecem um grande número de sons e palavras tupi. O que lhes dizem ser erro e ignorância é, na verdade, história social, valorosa sobrevivência da nossa verdadeira língua brasileira. Se não fosse assim, seria impossível rir daquela história de dois mineiros que resolveram temperar a prosa com café. E foram para a cozinha. Água fervida, coador pronto, um pergunta para o outro: “Pó pô o pó?”. E o outro responde, firme: “Pó pô!”.

De fato, somos um povo bilíngue, e o reconhecimento desse bilinguismo seria fundamental no trabalho dos educadores, em particular para enriquecer a compreensão da língua portuguesa, última flor do Lácio, inculta e bela, mais bela ainda porque invadida por esse outro lado da nossa identidade social, que teimamos em desconhecer.

José de Souza Martins, 64, é professor titular do Departamento de Sociologia da USP.

>O ki vc acha do internetês?


Ñ possu fik nm + 1 min com vc
sintu mt mô + naum podi sê
moru em jaçanãnnnn
xi eu perdê essi trem
ki sai agora as 11 hr
só amanhã di manhã
Jornal da Unicamp – Campinas, 14 a 20 de setembro de 2009 – ANO XXIV – Nº 441
Diálogo na internet: para pesquisadora, o emprego do computador e de programas de edição de textocontribui para a constituição de sentidos (Foto: Antoninho Perri) 
O compositor Adoniran Barbosa, nome artístico do valinhense João Rubinato, jamais poderia imaginar que uma das suas mais conhecidas obras, a música Trem das Onze, clássico do cancioneiro popular brasileiro composto em 1965, um dia seria traduzida para o internetês. Mas foi. A nova linguagem, própria do mundo virtual, ganha proporção à medida que novas levas de pessoas são incluídas no espaço digital. Por conta desse avanço, despontam na web comunidades linguísticas favoráveis e contrárias a essa forma de expressão grafolinguística. “Há um movimento de identificação com esse tipo de linguagem e com o modo como ele é usado no âmbito da informatização, embora também seja possível identificar resistências a ele”, analisa Marisa Ganança Teixeira da Silva, que defendeu recentemente tese de doutorado sobre o tema. O trabalho, orientado pela professora Suzy Lagazzi Rodrigues, foi apresentado no Instituto de Estudos da Linguagem (IEL) da Unicamp.
Em seu estudo, Marisa procurou compreender os modos de funcionamento do internetês, da língua portuguesa e da língua brasileira no espaço digital, bem como os gestos de interpretação daí advindos. A preocupação em diferenciar a língua portuguesa da brasileira vem da compreensão da autora, fundamentada na obra da professora Eni Orlandi, também da Unicamp, de que a língua falada e escrita atualmente no país é muito distinta da existente em Portugal, em função dos processos de significação e das mudanças que experimentou ao longo do tempo. “Fundamentei minha pesquisa na teoria da Análise do Discurso, visto que queria considerar não apenas as linguagens em si, mas principalmente seus sentidos”, explica.
No entender de Marisa, o internetês é uma linguagem específica do mundo virtual. O emprego do computador e de programas de edição de texto, afirma, contribui para a constituição de sentidos. “A especificidade do instrumento tecnológico induz à utilização de uma linguagem própria, mais informal e, portanto, mais fluida. Nesse tipo de linguagem, a brincadeira é permitida”, considera. Nesse sentido, a autora estabelece uma diferenciação entre os gestos de teclar e digitar. O primeiro, diz ela, remete ao internetês, que é favorecido pelo uso de símbolos e caracteres presentes no teclado, cuja função é criar atalhos para a transmissão da mensagem. O segundo está relacionado à linguagem formal, orientada pelas normas ortográficas e gramaticais. Neste, não há lugar para brincadeiras. “Entretanto, os dois tipos de linguagens atuam no mesmo espaço e estabelecem relações entre si”, atesta
Marisa Ganança Teixeira da Silva, autora da tese: “A especificidade do instrumento tecnológico induz à utilização de uma linguagem própria, mais informal e, portanto, mais fluida” (Foto: Antoninho Perri) 
Durante a pesquisa, Marisa investigou 42 comunidades virtuais abrigadas no site de relacionamento Orkut. Destas, sete tratavam sobre a língua portuguesa, quatro defendiam a existência da língua brasileira, uma era contrária a esta língua brasileira, 13 eram favoráveis ao internetês e outras 17 faziam oposição ao uso deste último. “Eu analisei diversos aspectos relacionados a essas comunidades. Considerei desde as suas denominações até as formulações e propostas nelas contidas. Foi interessante notar que a relação entre línguas e linguagens deixa entrever um processo de identificação com a língua nacional. No funcionamento dessas línguas e linguagens no âmbito da internet, os sentidos produzidos carregam os sentidos inscritos na memória discursiva da constituição do Brasil como nação”, reflete.
Numa das comunidades que defendem o internetês, Marisa deparou com a proposta de criação de um dicionário português/internetês. Também encontrou sugestões de tradução de poemas e músicas para a nova linguagem, como no caso da canção de Adoniran Barbosa. “Na versão que encontrei na web, é interessante perceber que essa linguagem própria do espaço virtual também traz marcas do chamado português formal, como a observância às regras de acentuação. Ao mesmo tempo, é uma linguagem que brinca com as normas ditas cultas, na medida em que cria palavras não consagradas pelos dicionários”, afirma Marisa.
Ainda nessa linha, a autora da tese observa que, ao contrário da visão tradicional, segundo a qual a tradução de um texto requer uma rigorosa prática de interpretação, no internetês são permitidas variadas traduções de um mesmo texto. “Essa diversidade nos leva a concluir que o objetivo não é sanar a completude da linguagem ou tentar entender o texto. Antes, é uma brincadeira com a língua; um gracejo com a sonoridade e com a oralidade da língua”, acrescenta Marisa. Embora não tenha abordado esse aspecto em sua tese, a especialista revela que tende a concordar com aqueles que consideram que o internetês não produzirá uma interferência significativa na língua formal, ainda que esse tipo de linguagem seja utilizado ocasionalmente por estudantes em sala de aula, associado com o português.
Marisa reforça que o internetês é propiciado principalmente por conta do uso do computador e dos recursos oferecidos pelo teclado e pelos programas de edição de texto. Sem essas ferramentas, ele perde, por assim dizer, muito da sua constituição. “Além do mais, até que ponto as pessoas vão continuar querendo usar o internetês da forma como o conhecemos hoje? Como essa linguagem oferece muitas possibilidades, é razoável imaginar que os adeptos dela vão desejar inovar, o que os levará a criar outras maneiras de comunicar o que pensam”, infere.
De acordo com a pesquisa desenvolvida por Marisa, os smileys podem ser considerados os precursores do internetês, dado que eles se prestam a uma linguagem abreviada e universal. O internetês, de acordo com a pesquisadora, foi criado para a troca de arquivos e bate-papos no meio virtual. “A utilização dos smileys tanto em conversas informais quanto em discussões de grupos me leva a compreender a relação com o surgimento dessa nova forma de linguagem. Também me leva a considerar a relação do internetês não com uma língua específica, mas com qualquer outra língua”, finaliza a autora do trabalho.