Arquivo mensal: outubro 2011

Archaeologists Find Sophisticated Blade Production Much Earlier Than Originally Thought (Tel Aviv University)

Monday, October 17, 2011
American Friends of Tel Aviv University

Blade manufacturing “production lines” existed as much as 400,000 years ago, say TAU researchers

Archaeology has long associated advanced blade production with the Upper Palaeolithic period, about 30,000-40,000 years ago, linked with the emergence of Homo Sapiens and cultural features such as cave art. Now researchers at Tel Aviv University have uncovered evidence which shows that “modern” blade production was also an element of Amudian industry during the late Lower Paleolithic period, 200,000-400,000 years ago as part of the Acheulo-Yabrudian cultural complex, a geographically limited group of hominins who lived in modern-day Israel, Lebanon, Syria and Jordan.

Prof. Avi Gopher, Dr. Ran Barkai and Dr. Ron Shimelmitz of TAU’s Department of Archaeology and Ancient Near Eastern Civilizations say that large numbers of long, slender cutting tools were discovered at Qesem Cave, located outside of Tel Aviv, Israel. This discovery challenges the notion that blade production is exclusively linked with recent modern humans.

The blades, which were described recently in the Journal of Human Evolution, are the product of a well planned “production line,” says Dr. Barkai. Every element of the blades, from the choice of raw material to the production method itself, points to a sophisticated tool production system to rival the blade technology used hundreds of thousands of years later.

An innovative product

Though blades have been found in earlier archaeological sites in Africa, Dr. Barkai and Prof. Gopher say that the blades found in Qesem Cave distinguish themselves through the sophistication of the technology used for manufacturing and mass production.

Evidence suggests that the process began with the careful selection of raw materials. The hominins collected raw material from the surface or quarried it from underground, seeking specific pieces of flint that would best fit their blade making technology, explains Dr. Barkai. With the right blocks of material, they were able to use a systematic and efficient method to produce the desired blades, which involved powerful and controlled blows that took into account the mechanics of stone fracture. Most of the blades of were made to have one sharp cutting edge and one naturally dull edge so it could be easily gripped in a human hand.

This is perhaps the first time that such technology was standardized, notes Prof. Gopher, who points out that the blades were produced with relatively small amounts of waste materials. This systematic industry enabled the inhabitants of the cave to produce tools, normally considered costly in raw material and time, with relative ease.

Thousands of these blades have been discovered at the site. “Because they could be produced so efficiently, they were almost used as expendable items,” he says.

Prof. Cristina Lemorini from Sapienza University of Rome conducted a closer analysis of markings on the blades under a microscope and conducted a series of experiments determining that the tools were primarily used for butchering.

Modern tools a part of modern behaviors

According to the researchers, this innovative industry and technology is one of a score of new behaviors exhibited by the inhabitants of Qesem Cave. “There is clear evidence of daily and habitual use of fire, which is news to archaeologists,” says Dr. Barkai. Previously, it was unknown if the Amudian culture made use of fire, and to what extent. There is also evidence of a division of space within the cave, he notes. The cave inhabitants used each space in a regular manner, conducting specific tasks in predetermined places. Hunted prey, for instance, was taken to an appointed area to be butchered, barbequed and later shared within the group, while the animal hide was processed elsewhere.

Expedição no Amazonas vai divulgar astronomia indígena na Semana Nacional de C&T (Jornal A Crítica, de Manaus)

JC e-mail 4365, de 17 de Outubro de 2011.

Calendário indígena do povo dessana associa constelações às mudanças do clima e ao ecossistema amazônico.

Surucucu não é apenas a mais perigosa serpente da Amazônia. Para os povos indígenas da etnia dessana, também é uma das inúmeras constelações que os ajudam a identificar o ciclo dos rios, o período da piracema, a formação de chuvas e sugere o momento ideal para a realização de rituais.

Na astronomia indígena, outubro é o mês do desaparecimento da constelação surucucu (añá em língua dessana) no horizonte oeste – o equivalente a escorpião na astronomia ocidental. O desaparecimento da figura da cobra está associado ao fim do período da vazante. Os dessana têm outras 13 constelações, sempre associadas às alterações climáticas.

Para divulgar a respeito da pouco conhecida astronomia indígena, um grupo de estudiosos promoverá no próximo dia 19 uma expedição de dois dias a uma aldeia da etnia dessana localizada na Reserva de Desenvolvimento Sustentável Tupé, em Manaus.

Expedição – A comunidade é composta por famílias dessana que se deslocaram da região do alto Rio Negro, no Norte do Amazonas, e ressignificaram suas tradições, cosmologias e rituais na comunidade onde se estabeleceram na zona rural de Manaus. O astrônomo Germano Afonso, do Museu da Amazônia (Musa), que desenvolve há 20 anos estudo sobre constelações indígenas no país, coordenará a expedição. Com os dessana, o trabalho de Germano Afonso é desenvolvimento há dois anos.

Ele descreve a programação como um “diálogo” entre a astronomia indígena e o conhecimento científico. “Será um diálogo entre os dois conhecimentos. Vamos escutar os indígenas e ao mesmo tempo levar uma pequena estação meteorológica que mede temperatura e velocidade. A ciência observa com equipamentos, o indígena vê isso empiricamente”, explicou.

Uma embarcação da Secretaria Municipal de Educação (Semed) levará as pessoas interessadas em participar da experiência. “Vamos fazer atividades de astronomia, meteorologia e química com os indígenas. Será uma atividade integrada à Semana de Ciência e Tecnologia”, explica Afonso.

O traço identificado como surucuru pelos indígenas é mais visível por volta de 19h, pelo lado oeste. Depois da surucuru, é a vez do tatu – outra espécie comum na fauna amazônica.

Desastres – Germano Afonso conta que os povos indígenas observam o céu, a lua, as constelações e sabem exatamente qual a época ideal para fazer o roçado, para se prevenir de uma cheia ou de uma seca. Também sabem qual o momento ideal para realizar um ritual.

A diferença em relação ao conhecimento científico, ocidental, é que não utilizam equipamentos e tecnologia para prever alterações do tempo e mudanças do clima. Mas há uma diferença mais significativa: os indígenas não caem vítimas de desmoronamentos, de grandes cheias ou de uma vazante extraordinária.

“Quem tem mais cuidado com o meio ambiente e evitar os desastres ambientais? Os índios sabem exatamente quando vai cair uma chuva forte e teremos uma grande enchente. Mas eles não morrem por causa disso”, destaca Afonso, que tem ascendência indígena guarani.

Occupy Wall Street’s ‘Political Disobedience’ (N.Y. Times)

October 13, 2011, 4:15 PM

By BERNARD E. HARCOURT

Our language has not yet caught up with the political phenomenon that is emerging in Zuccotti Park and spreading across the nation, though it is clear that a political paradigm shift is taking place before our very eyes. It’s time to begin to name and in naming, to better understand this moment. So let me propose some words: “political disobedience.”

Occupy Wall Street is best understood, I would suggest, as a new form of what could be called “political disobedience,” as opposed to civil disobedience, that fundamentally rejects the political and ideological landscape that we inherited from the Cold War.

Civil disobedience accepted the legitimacy of political institutions, but resisted the moral authority of resulting laws. Political disobedience, by contrast, resists the very way in which we are governed: it resists the structure of partisan politics, the demand for policy reforms, the call for party identification, and the very ideologies that dominated the post-War period.

Occupy Wall Street, which identifies itself as a “leaderless resistance movement with people of many … political persuasions,” is politically disobedient precisely in refusing to articulate policy demands or to embrace old ideologies. Those who incessantly want to impose demands on the movement may show good will and generosity, but fail to understand that the resistance movement is precisely about disobeying that kind of political maneuver. Similarly, those who want to push an ideology onto these new forms of political disobedience, like Slavoj Zizek or Raymond Lotta, are missing the point of the resistance.

When Zizek complained last August, writing about the European protesters in the London Review of Books, that we’ve entered a “post-ideological era” where “opposition to the system can no longer articulate itself in the form of a realistic alternative, or even as a utopian project, but can only take the shape of a meaningless outburst,” he failed to understand that these movements are precisely about resisting the old ideologies. It’s not that they couldn’t articulate them; it’s that they are actively resisting them — they are being politically disobedient.

And when Zizek now declares at Zuccotti Park “that our basic message is ‘We are allowed to think about alternatives’ . . . What social organization can replace capitalism?” ― again, he is missing a central axis of this new form of political resistance.

One way to understand the emerging disobedience is to see it as a refusal to engage these sorts of  worn-out ideologies rooted in the Cold War. The key point here is that the Cold War’s ideological divide — with the Chicago Boys at one end and the Maoists at the other — merely served as a weapon in this country for the financial and political elite: the ploy, in the United States, was to demonize the chimera of a controlled economy (that of the former Soviet Union or China, for example) in order to prop up the illusion of a free market and to legitimize the fantasy of less regulation — of what was euphemistically called “deregulation.” By reinvigorating the myth of free markets, the financial and political architects of our economy over the past three plus decades — both Republicans and Democrats — were able to disguise massive redistribution toward the richest by claiming they were simply “deregulating” when all along they were actually reregulating to the benefit of their largest campaign donors.

This ideological fog blinded the American people to the pervasive regulatory mechanisms that are necessary to organize a colossal late-modern economy and that necessarily distribute wealth throughout society — and in this country, that quietly redistributed massive amounts of wealth to the richest 1 percent. Many of the voices at Occupy Wall Street accuse political ideology on both sides, on the side of free markets but also on the side of big government, for serving the few at the expense of the other 99 percent — for paving the way to an entrenched permissive regulatory system that “privatizes gains and socializes losses.”

A protest march through the financial district of New York on October 12.Lucas Jackson/ReutersA protest march through the financial district of New York on October 12.

The central point, of course, is that it takes both a big government and the illusion of free markets to achieve such massive redistribution. If you take a look at the tattered posters at Zuccotti Park, you’ll see that many are intensely anti-government and just as many stridently oppose big government.

Occupy Wall Street is surely right in holding the old ideologies to account. The truth is, as I’ve argued in a book, “The Illusion of Free Markets,” and recently in Harper’s magazine, there never have been and never will be free markets. All markets are man-made, constructed, regulated and administered by often-complex mechanisms that necessarily distribute wealth — that inevitablydistribute wealth — in large and small ways. Tax incentives for domestic oil production and lower capital gains rates are obvious illustrations. But there are all kinds of more minute rules and regulations surrounding our wheat pits, stock markets and economic exchanges that have significant wealth effects: limits on retail buyers flipping shares after an I.P.O., rulings allowing exchanges to cut communication to non-member dealers, fixed prices in extended after-hour trading, even the advent of options markets. The mere existence of a privately chartered organization like the Chicago Board of Trade, which required the state of Illinois to criminalize and forcibly shut down competing bucket shops, has huge redistributional wealth effects on farmers and consumers — and, of course, bankers, brokers and dealers.

The semantic games — the talk of deregulation rather than reregulation — would have been entertaining had it not been for their devastating effects. As the sociologist Douglas Massey minutely documents in “Categorically Unequal,” after decades of improvement, the income gap between the richest and poorest in this country has dramatically widened since the 1970s, resulting in what social scientists now refer to as U-curve of increasing inequality. Recent reports from the Census Bureau confirm this, with new evidence last month that “the number of Americans living below the official poverty line, 46.2 million people, was the highest number in the 52 years the bureau has been publishing figures on it.” Today, 27 percent of African-Americans and 26 percent of Hispanics in this country — more than 1 in 4 — live in poverty; and 1 in 9 African-American men between the ages of 20 and 34 are incarcerated.

It’s these outcomes that have pushed so many in New York City and across the nation to this new form of political disobedience. It’s a new type of resistance to politics tout court — to making policy demands, to playing the political games, to partisan politics, to old-fashioned ideology. It bears a similarity to what Michel Foucault referred to as “critique:” resistance to being governed “in this manner,” or what he dubbed “voluntary insubordination” or, better yet, as a word play on the famous expression of Etienne de la Boétie, “voluntary unservitude.”

If this concept of “political disobedience” is accurate and resonates, then Occupy Wall Street will continue to resist making a handful of policy demands because it would have little effect on the constant regulations that redistribute wealth to the top. The movement will also continue to resist Cold War ideologies from Friedrich Hayek to Maoism — as well as their pale imitations and sequels, from the Chicago School 2.0 to Alain Badiou and Zizek’s attempt to shoehorn all political resistance into a “communist hypothesis.”

On this account, the fundamental choice is no longer the ideological one we were indoctrinated to believe — between free markets and controlled economies — but rather a continuous choice between kinds of regulation and how they distribute wealth in society. There is, in the end, no “realistic alternative,” nor any “utopian project” that can avoid the pervasive regulatory mechanisms that are necessary to organize a complex late-modern economy — and that’s the point. The vast and distributive regulatory framework will neither disappear with deregulation, nor with the withering of a socialist state. What is required is constant vigilance of all the micro and macro rules that permeate our markets, our contracts, our tax codes, our banking regulations, our property laws — in sum, all the ordinary, often mundane, but frequently invisible forms of laws and regulations that are required to organize and maintain a colossal economy in the 21st-century and that constantly distribute wealth and resources.

In the end, if the concept of “political disobedience” accurately captures this new political paradigm, then the resistance movement needs to occupy Zuccotti Park because levels of social inequality and the number of children in poverty are intolerable. Or, to put it another way, the movement needs to resist partisan politics and worn-out ideologies because the outcomes have become simply unacceptable. The Volcker rule, debt relief for working Americans, a tax on the wealthy — those might help, but they represent no more than a few drops in the bucket of regulations that distribute and redistribute wealth and resources in this country every minute of every day. Ultimately, what matters to the politically disobedient is the kind of society we live in, not a handful of policy demands.

Risco é coisa séria (JC)

JC e-mail 4364, de 14 de Outubro de 2011.

Artigo de Francisco G. Nóbrega enviado ao JC Email pelo autor.

A sociedade moderna está banhada em comunicação. Como “boa notícia não é notícia”, a lente psicológica humana registra sempre um cenário pior que a realidade. A percepção usual é que os riscos de todos os tipos aumentam dia a dia. A redução global da violência, por exemplo, é tema do livro recente do psicólogo da Universidade Harvard, Steven Pinker (http://www.samharris.org/blog/item/qa-with-steven-pinker). Ao arrepio do senso comum, ele demonstra, objetivamente, que estamos progredindo neste quesito.

Mas nossa mente não descança em sua aguda capacidade de detectar outras fontes de risco. Temos alguns campeões de audiência: energia nuclear para eletricidade, alimentos geneticamente modificados e aquecimento global catastrófico e antropogênico. O dano potencial das três ameaças mencionadas, objetivamente, não se concretizou de maneira alguma, embora a terceira ameaça deva se realizar no futuro, segundo seus defensores. As pessoas se encantam com o automóvel e seus acessórios, cada vez mais atraentes. Não se pensa em baní-lo, apesar de resultar em cerca de 40.000 mortos e inúmeros incapacitados cada ano, só no Brasil. David Ropeik, que pertence ao Centro Harvard para Análise de Risco, explica como facilmente se distorce o perigo real de situações. Quanto mais afastadas do senso comum (como radiação e plantas geneticamente modificadas), mais facilmente são manipuladas, por ignorância ou interesses outros, apavorando o cidadão comum. Ropeik explica como este medo sem sentido passa a ser um fator de estresse e um risco objetivo para a saúde das pessoas, devendo ser evitado.

Dentro desse universo, são justificadas as preocupações do Dr. Ferraz (“O feijão nosso de cada dia”, Jornal da Ciência, 6/10/2011). Ele é membro da CTNBio, atua na setorial vegetal/ambiental e sua área de concentração é em agroecologia, o que explica, pelo menos em parte, suas dúvidas. No entanto essas preocupações não têm a consistência sugerida pelo autor e a análise da CTNBio, que resultou na aprovação deste feijão, é confiável.

A comissão se pauta sempre pelas diretivas da legislação que são amplas, para dar conta de todas as possibilidades de risco para os consumidores e meio ambiente. No entanto o corpo técnico existe exatamente para atuar de maneira seletiva e consciente, examinando caso a caso. Os testes são examinadas com o rigor que a modificação introduzida na planta exige para plena segurança. Se as modificações são consideradas sem qualquer risco significativo, os testes são avaliados à luz deste fato.

Testes com muitos animais, altamente confiáveis estatisticamente, seriam exigidos pela comissão na eventualidade de uma planta transgênica produzir, por exemplo, uma molécula pesticida não protéica que seria em tudo semelhante a uma droga produzida pela indústria farmacêutica. Isto poderá acontecer em certo momento, já que as plantas têm capacidade de produzir os mais variados pesticidas naturais para se defenderem na natureza. A substância seria absorvida no intestino e se disseminaria por órgãos e tecidos, possivelmente exercendo efeitos sistêmicos e localizados que exigem avaliação. Isso já aconteceu, sem querer, com uma batata produzida por melhoramento convencional nos EUA. Seu consumo levou a mal estar e foi recolhida apressadamente: portava altos níveis de glicoalcalóides tóxicos para o homem, o que explicava sua excelente resistência às pragas da cultura.

No caso do feijão Embrapa, nenhuma molécula não protéica nova é produzida e o pequeno RNA que interfere com a replicação do vírus, caso alguém venha a ingerir folhas e caules, será um entre centenas ou milhares de RNAs que ingerimos diariamente com qualquer produto vegetal. O RNA introduzido, no entanto, não foi detectado no grão do feijão cozido, usando técnicas extremamente poderosas.

As variações detectadas, se estatisticamente significativas (concentração de vitamina B2 ou cisteína por exemplo) não representam risco algum. A técnica clássica de cultura de tecidos, usada para gerar variedades de qualidade em horticultura e propagação de árvores, reconhecidamente resulta em variações naturais que introduzem certas modificações desejáveis e algumas indesejáveis, que o melhorista depois seleciona. É a variação somaclonal, que também afeta os clones geneticamente modificados na sua fase de seleção.

Portanto, é no mínimo ingênuo dizer que o feijão Embrapa 5.1 “deveria ser idêntico” a variedade de origem pois as manipulações necessárias para gerar o transgênico resultam em certas alterações que, se irrelevantes, são ignoradas e se deletérias são descartadas pelos cientistas. Se fizermos as mesmas análises, cujos resultados preocupam alguns, com as muitas variedades convencionais consumidas no país, as diferenças serão impressionantes e irrelevantes para a questão “segurança”.

Como já foi comentado anteriormente, não existe base factual (bioquímica ou genética) para imaginar que o feijão Embrapa apresente risco maior do que um feijão comum ou melhorado por mutagênese química ou física, que por sinal, não é supervisionado nutricional e molecularmente antes de sua comercialização. Sem base biológica, os testes tornam-se formalidades supérfluas e o ruído experimental, principalmente com amostras pequenas, quase inevitavelmente vai gerar resultados que são irrelavantes a menos que se amplie muito o número de animais (para amostras controle e transgênicas) além de ser prudente incluir animais alimentados com outros feijões convencionais para uma idéia realista do significado das variações detectadas. Imaginem o custo dessa busca “caça fantasma”, desencadeada simplesmente devido a uma aplicação pouco esclarecida do princípio da precaução. As preocupações sem base racional, levantadas a todo momento pelos que temem a tecnologia, se aplicariam com maior lógica aos produtos convencionais.

Caso isso aconteça, do dia para a noite estaria inviabilizada a produção agrícola do planeta. Por que não fazer estudos com Rhizobium e nodulação em todos os feijões comercializados? Por que não conduzir estudos nutricionais de longo prazo com os alimentos convencionais derivados de mutagênese? Qual a razão lógica que exclui essas preocupações com as plantas convencionais? Ou a razão seria metafísica? A alteração introduzida seria “contra a natureza”, algo como o pecado original, que, em muitas interpretações, consistiu apenas em comer o fruto da “árvore do conhecimento”? Recentemente 41 cientistas suecos da área vegetal lançaram um manifesto contra a sobre-regulação da genética moderna na Europa (reproduzido no blog GenPeace: genpeace.blogspot.com). Os autores observam que, fazendo um paralelo com as exigências para os produtos farmacêuticos, a “lógica da legislação atual sugere que apenas drogas produzidas por meio de engenharia genética deveriam ser avaliadas quando a efeitos indesejáveis”.

Instilar o medo com base em suposições não ajuda a proteger a população ou o meio ambiente. Marie Curie teria dito “Na vida nada deve ser temido. Mas tudo deve ser compreendido”. Considero irresponsável usar o “princípio da precaução” como alguns o fazem. Inclusive a OMS caiu nesta armadilha, classificando os telefones celulares no grupo 2B de risco para causar câncer. A radiação destes equipamentos é cerca de um milhão de vezes inferior à energia que pode produzir radicais livres e gerar dano ao DNA. A classe 2B inclui o risco de câncer relativo ao café, resíduos da queima de combustíveis fósseis e uso de dentadura…. O que a WHO manteve viva, irresponsavelmente, é a justificativa para a dúvida, que vai legitimar pesquisas caras e irrelevantes, cujo resultado será inconclusivo, como o mega estudo anterior. Incrivelmente mais perigoso é o uso do celular enquanto se dirige.

Francisco G. da Nóbrega é professor da Universidade de São Paulo (USP).

Secitece promove I Fórum “Ceará Faz Ciência” (Funcap)

POR ADMIN, EM 13/10/2011

Com a Assessoria de Comunicação da Secitece

O evento será realizado nos dias 17 e 18 de outubro, no auditório do Planetário do Centro Dragão do Mar de Arte e Cultura.

Nos dias 17 e 18 de outubro, a Secretaria da Ciência Tecnologia e Educação Superior (Secitece), realizará o “I Fórum Ceará Faz Ciência”, com o tema” Mudanças climáticas, desastres naturais e prevenção de riscos”. A iniciativa integra a programação estadual da Semana Nacional de Ciência e Tecnologia.

O secretário da Ciência e Tecnologia, René Barreira, fará a abertura do evento, dia 17, às 17h, no auditório do Planetário Rubens de Azevedo. Na ocasião, será prestada homenagem ao pesquisador cearense Expedito Parente, conhecido como o pai do biodiesel, que faleceu em setembro.

No dia 18, partir das 9h, as atividades serão retomadas com as seguintes palestras: “Onda gigante no litoral brasileiro. É possível?”, com o prof. Francisco Brandão, chefe do Laboratório de Sismologia da Coordenadoria Estadual de Defesa Civil, e “As quatro estações do ano no Ceará: perceba suas interferências na fisiologia e no meio ambiente”, ministrada por Dermeval Carneiro, prof. de Física e Astronomia, presidente da Sociedade Brasileira dos Amigos da Astronomia e diretor do Planetário Rubens de Azevedo – Dragão do Mar.

No período da tarde, a partir das 14h30, será a vez da palestra “Desastres Naturais: como prevenir e atuar em situações de risco”, com o Tenente Coronel Leandro Silva Nogueira, secretário Executivo da Coordenadoria Estadual de Defesa Civil. Para finalizar o Fórum, a engenheira agrônoma do Departamento de Recursos Hidricos e Meio Ambiente da Fundação Cearense de Meteorologia e Recursos Hídricos (Funceme), Sonia Barreto Perdigão, ministrará palestra sobre “Mudanças Climáticas e Desertificação no Ceará”, às 16h30.

Os interessados em participar do I Fórum “Ceará Faz Ciência”, a ser realizado nos dias 17 e 18/10, no Dragão do Mar, em Fortaleza, devem fazer sua pré-inscrição. O formulário a ser preenchido está disponível no site da Secitece. A participação é gratuita.

Serviço
I Fórum Ceará Faz Ciência
Data: 17 e 18 de outubro de 2011
Local: Auditório do Planetário Rubens de Azevedo
Informações: (85) 3101-6466
Inscrições gratuitas.

Trading Knowledge As A Public Good: A Proposal For The WTO (Intellectual Property Watch)

Published on 14 October 2011 @ 2:23 pm

By Rachel Marusak Hermann for Intellectual Property Watch

Years of deadlock in the Doha Round of trade negotiations at the World Trade Organization (WTO) has prompted some to question the institution’s effectiveness, and even, its relevance. But for others, the stalemate seems to be favourable for new ideas and new ways to think about global trade.

During the 19-21 September WTO Public Forum 2011, Knowledge Ecology International (KEI) and IQsensato, both not-for-profit organisations, held a joint panel session on a proposal to the WTO entitled, “An Agreement on the Supply of Knowledge as a Global Public Good.” The 21 September session provided a space to debate the feasibility of adding the supply of public goods involving knowledge as a new category in negotiated binding commitments in international trade.

James Love, director of KEI, presented the idea. “The agreement,” he explained, “combines voluntary offers with binding commitments by governments to increase the supply of heterogeneous public goods. It would be analogous to existing WTO commitments to reducing tariffs, subsidies, or liberalising services.”

Limited access

The idea of “public goods” has been around for a while. A KEI 2008 paper on the proposal, John Kenneth Galbraith’s 1958 book, The Affluent Society, which created a stir about society’s over-supply of private goods versus a growing under-supply of public goods. The KEI paper also cites the contribution to the debate made by Joseph Stiglitz, who identified five global public good categories: international economic stability, international security (political stability), the international environment, international humanitarian assistance, and knowledge.

It’s this last category that KEI would like to see put up for negotiation. According to its 2008 paper, “In recent decades, an influential and controversial enclosure movement has vastly expanded the boundaries of what knowledge can be ‘owned,’ lengthened the legal terms of protection and enhanced the legal rights granted to owners of the collection of legal rights referred to as “intellectual property.”

Proposal advocates argue that in the wake of such knowledge protection, the global community faces an under-supply of public goods, including knowledge. Shandana Gulzar Khan, of the permanent mission of Pakistan to the WTO, seconds this sentiment. “I feel that an acute restriction of access to public goods and services is indeed a reality for the majority of the world’s population.”

Love argued that the WTO is the right international institutional to contribute to the solution. He cited a description of the WTO found on its website: “Above all, it’s a negotiating forum…Essentially, the WTO is a place where member governments go, to try to sort out the trade problems they face with each other…. Although negotiated and signed by governments, the goal is to help producers of goods and services, exporters, and importers conduct their business, while allowing governments to meet social and environmental objectives.”

Defining Good

When it comes to defining what qualifies as a global public good, Love mentioned how the International Task Force on Global Public Goods describes them as goods that “address issues that are deemed to be important to the international community; and that cannot, or will not, be adequately addressed by individual countries acting alone.” The list of such priorities is long and far-reaching.

Examples of potential ask/offers includes collaborative funding of inducement prizes to reward open source innovation in areas of climate change, sustainable agriculture and medicine; agreement to fund biomedical research in areas of great importance, such as new antibiotics, avian influenza, and the development of an AIDS vaccine; funding of projects to improve functionality and usability of free software; and new open public domain tools for distance education.

Some experts cautioned that deriving a universal definition of what constitutes global public goods is a tall task. Panel speaker Antony Taubman, director of the Intellectual Property Division at the WTO, cautioned that public goods do not bring with them an idea of prioritization. “One of the underlying challenges, of course, is how to multi-lateralise the concept of public goods…. What might be considered a high priority public good from one country’s perspective would possibly be even rejected by another country.”

Taubman mentioned hormones for beef or genetically modified crops as current examples of controversial public goods. “Would one country’s contribution of a new drought resistant genetically modified crop really be considered a valuable public good by countries that regarded that as an inappropriate technology?”

Another panellist, José Estanislau do Amaral from the permanent mission of Brazil to the WTO and other economic organisations in Geneva, suggested ways to take the proposal forward.

“There seems to be a double objective in the proposal,” he said. “One is to support the creation of certain public goods and the other one is to increase access to those goods. Both of course are interlinked and they are mutually reinforcing. But they are objectives in themselves…. I am inclined, at this stage, to suggest that there might be benefits in those two objectives being pursued separately. Access to existing knowledge must not be required to wait for the supply of new knowledge.”

The Brazilian official suggested that KEI construct a structured draft treaty of the proposal so there could be a more advanced debate on the idea. Love said that a draft agreement should be ready by the end of February 2012.

Rachel Marusak Hermann may be reached at rachel@rachels-ink.com.

Can indigenous peoples be relied on to gather reliable environmental data? (Stanford University)

Public release date: 13-Oct-2011
Contact: Louis Bergeron
Stanford University

No one is in a better position to monitor environmental conditions in remote areas of the natural world than the people living there. But many scientists believe the cultural and educational gulf between trained scientists and indigenous cultures is simply too great to bridge — that native peoples cannot be relied on to collect reliable data.

But now, researchers led by Stanford ecologist Jose Fragoso have completed a five-year environmental study of a 48,000-square-kilometer piece of the Amazon Basin that demonstrates otherwise. The results are presented in a paper published in the October issue of BioScience and are available online.

The study set out to determine the state of the vertebrate animal populations in the region and how they are affected by human activities. But Fragoso and his colleagues knew they couldn’t gather the data over such a huge area by themselves.

“The only way you are going to understand what is in the Amazon in terms of plants and animals and the environment, is to use this approach of training indigenous and the other local people to work with scientists,” Fragoso said.

“If I had tried to use only scientists, postdocs and graduate students to do the work, it would not have been accomplished.”

Fragoso and his colleagues worked in the Rupununi region in Guyana, a forest-savanna ecosystem occupied by the Makushi and Wapishana peoples. They support themselves primarily through a mix of subsistence hunting, fishing and agriculture, along with some commercial fishing, bird trapping and small-scale timber harvesting.

The researchers recruited 28 villages and trained more than 340 villagers in methods of collecting field data in a consistent, systematic way. The villagers were shown how to walk a transect through an area, recording sightings and signs of animals, noting the presence of plants that animals feed on and marking their observations on a map.

The training was not without its challenges. Many of the older villagers were expert bushmen, but could not read, write or do arithmetic. Many of the younger villagers, who had received some formal education, were literate but lacked knowledge of the animals and plants in the wilds around their communities. So researchers paired younger and older villagers to go into the field together. All the villagers were paid for the work they did.

Part of any scientific study is validating the accuracy of the data and Fragoso’s team knew that no matter how well they trained their indigenous technicians, they would have to analyze the data for errors and possible fabrications.

The researchers used a variety of methods, including having a different team of technicians or researchers walk some transects a second time, to verify that they were regularly walked by technicians, that data were accurate and that reported animal sightings were plausible. They also had technicians fill out monthly questionnaires about their work and did statistical analyses for patterns of discrepancy in the data.

The most consistently accurate data was recorded by technicians in communities that had strong leadership and that were part of a larger indigenous organization, such as an association of villages. Fabricated data was most common among technicians from villages unaffiliated or loosely affiliated with such an association, where there was less oversight.

The other main factor was whether a technician’s interest in the work went beyond a salary, whether he was interested in acquiring knowledge.

After all the data verification was done, the researchers found that on average, the indigenous technicians were every bit as able to systematically record accurate data as trained scientists. They were also probably better than scientists at detecting animals and their signs.

“This is the first study at a really large scale that shows that consistently valid field data can be collected by trained, indigenous peoples and it can be done really well,” Fragoso said. “We have measured the error and discovered that 28 percent of villages experienced some data fabrication. This originated from about 5 percent (18 out of 335) of technicians fabricating data, which may not be much different than what occurs in the community of scientists.”

“The indigenous technicians are no more corrupt, sloppy, or lazy than we are,” he said, noting that every year papers published in peer-reviewed science journals have to be withdrawn because of falsified or inaccurate data.

In all, the technicians walked over 43,000 kilometers through the wild, recording data. That’s once around the world and then some. They logged 48,000 sightings of animals of 267 species. They also recorded over 33,000 locations of fruit patches on which various species of animals feed.

Working with indigenous technicians enables researchers to gather far more data over a much larger area than would otherwise be possible, Fragoso said. Such data can be used by governments, scientists and conservation organizations to get an understanding of remote areas, from tropical forests to the Arctic tundra.

Fragoso is optimistic about how the results of the study will be received by the scientific community.

“I have presented this study to some pretty unreceptive groups, such as at scientific meetings, but by the end of the presentation audience members are either convinced, or at least they doubt their argument, which is a major achievement in itself,” he said.

“One thing about the scientific community – if you have enough solid data and the analysis is well done, there is very little you can argue against.”

* * *
[One should ask as well: Can scientists be relied on to gather reliable environmental data? Or journalists? Or politicians?]

Those fast-talking Japanese! And Spanish! (The Christian Science Monitor)

By Ruth Walker / October 13, 2011

It is the universal experience of anyone having a first serious encounter in a language he or she is learning: “Those people talk so fast I will never be able to understand them, let alone hold my own in a conversation.”

The learner timidly poses a carefully rehearsed question about the availability of tickets for tonight’s performance or directions to the museum or whatever, and the response all but gallops out of the mouth of the native speaker like a runaway horse.

Now researchers at the University of Lyon in France have presented findings that provide language learners some validation for their feelings – but only some. The team found that, objectively, some languages are spoken faster than others, in terms of syllables per minute. But there’s a trade-off: Some languages pack more meaning into their syllables.

The key element turns out to be what the researchers call “density.”

Time magazine published a widely reproduced article on the Lyon research, which originally came out in Language, the journal of the Linguistic Society of America. The team in Lyon recruited several dozen volunteers, each a native speaker of one of several common languages: English, French, German, Italian, Japanese, Mandarin Chinese, or Spanish. Vietnamese was used as a sort of control language.

The volunteers read a series of 20 different texts in their respective native tongues into a recorder. The researchers then counted all the syllables in each of the recordings to determine how many syllables per second were spoken in each language. That’s a lot of counting.

Then they analyzed all these syllables for their information density. To mention Time’s examples: “A single-syllable word like bliss, for example, is rich with meaning – signifying not ordinary happiness but a particularly serene and rapturous kind. The single-syllable word to is less information-dense. And a single syllable like the short ‘i’ sound, as in the word jubilee, has no independent meaning at all.”

Here’s where Vietnamese comes in: It turns out to be the gold standard for information density. Who knew? The researchers assigned an arbitrary value of 1 to Vietnamese syllables, and compared other syllables against that standard.

English turns out to have a density of .91 (91 percent as dense as Vietnamese, in other words) and an average speed of 6.19 syllables per second. Mandarin is slightly denser (.94) but has an average speed of 5.18, which made it the slowest of the group studied.

At the other end of the scale were Spanish, with a density of .63 and a speed of 7.82, and Japanese, with a density of only .49 but a speed of 7.84.

So what makes a language more or less dense? The number of sounds, for one thing. Some languages make do with relatively few consonants and vowels, and so end up with a lot of long words: Hawaiian, for example, with 13 letters.

English, on the other hand, has a relatively large number of vowels – a dozen, although that varies according to dialect. Chinese uses tones, which help make it a “denser” language. And some languages use more inflections – special endings to indicate gender, number, or status – which English, for instance, largely dispenses with.

The researchers concluded that across the board, speakers of the languages they studied conveyed about the same amount of meaning in the same amount of time, whether by speaking faster or packing more meaning into their syllables.

Medida da discórdia (quântica) (Fapesp)

Pesquisadores brasileiros medem diretamente pela primeira vez propriedade que pode se mostrar muito importante para o desenvolvimento da computação quântica (montagem:Ag.FAPESP)

14/10/2011

Por Elton Alisson

Agência FAPESP – A fragilidade das propriedades quânticas, que desaparecem devido à interação com o meio ambiente, a temperatura finita ou em corpos macroscópicos, representa um dos maiores obstáculos para o desenvolvimento dos desejados computadores quânticos, máquinas ultravelozes que seriam capazes de realizar simultaneamente e, em questão de segundos, operações que os computadores convencionais demorariam bilhões de anos para efetuar.

Um grupo de físicos brasileiros mediu experimentalmente de forma direta, pela primeira vez, uma propriedade que pode ser útil para o desenvolvimento da computação quântica.

Derivados do projeto “Informação quântica e decoerência”, apoiado pela FAPESP por meio do Programa Jovens Pesquisadores em Centros Emergentes, os resultados dos experimentos foram publicados em 30 de setembro na Physical Review Letters.

Em 9 de agosto, o grupo havia publicado na mesma revista um artigo em que descreveram como conseguiram medir a chamada discórdia quântica à temperatura ambiente.

Introduzido em 2001, o conceito de discórdia quântica indica a correlação não clássica entre duas entidades, como núcleos, elétrons, spins e fótons, que implica em características que não podem ser observadas em sistemas clássicos.

Até então se acreditava que essa grandeza quântica só poderia ser medida em sistemas muito bem controlados ou a baixíssimas temperaturas e isolados do meio ambiente, uma vez que qualquer interferência seria capaz de destruir a ligação entre os objetos quânticos, que era atribuída unicamente a um fenômeno físico chamado emaranhamento – o que dificultaria a concepção de um computador quântico.

“Entretanto, medimos experimentalmente essa correlação (discórdia) quântica e demonstramos que ela está presente onde não se esperava e que esse fenômeno pode ser explorado mesmo à temperatura ambiente, em situações em que há muito ruído térmico”, disse Roberto Menezes Serra, professor da Universidade Federal do ABC (UFABC) e coordenador do projeto, à Agência FAPESP.

Para medir a discórdia quântica, os pesquisadores trabalharam com uma molécula de clorofórmio, que possui um átomo de carbono, um de hidrogênio, e três de cloro.

Utilizando técnicas de ressonância magnética nuclear, eles codificaram um bit quântico no spin do núcleo do hidrogênio e outro no de carbono, em um cenário em que eles não estavam emaranhados, e demonstraram que é possível medir as correlações quânticas entre os dois spins nucleares.

Por intermédio do experimento, desenvolveram um método prático para medir correlações quânticas (a discórdia quântica) através de uma grandeza física, denominada “testemunha ocular”, que permite a observação direta do caráter quântico da correlação de um sistema. “Isso demonstrou de forma inequívoca a natureza quântica dos testes de princípios realizados em ressonância magnética nuclear à temperatura ambiente. Esses resultados podem abrir caminho para outras aplicações em informação quântica à temperatura embiente”, disse Serra.

No trabalho publicado no novo artigo, os pesquisadores brasileiros mediram outro fenômeno que haviam previsto, denominado mudança súbita de comportamento da discórdia quântica.

O efeito descreve a alteração de comportamento da discórdia quântica quando o sistema físico em que ela está presente entra em contato com o meio ambiente, causando uma perda de coerência do sistema (um fenômeno conhecido como decoerência). Nessa situação, a discórdia quântica pode permanecer constante e insensível ao ruído térmico durante um determinado tempo e, depois, começar a decair.

“Conhecer as sutilezas do comportamento dinâmico desse sistema é importante porque, se utilizarmos a discórdia quântica para obter alguma vantagem em algum processo, como de metrologia ou de processamento de informação, precisamos saber o quão robusto esse aspecto quântico é em relação a essa perda de coerência para conhecer por quanto tempo o dispositivo pode funcionar bem e quais erros devem ser corrigidos”, explicou Serra.

Referência mundial

Até há alguns anos, os cientistas achavam que o emaranhamento fosse uma propriedade essencial para obtenção de ganhos em um sistema quântico, como a maior capacidade para a troca de informações entre objetos quânticos. Recentemente, descobriu-se que essa propriedade não é necessariamente fundamental para a vantagem quântica em processamento de informação, porque há protocolos em que a vantagem quântica é obtida em sistemas não emaranhados. Dessa forma, conjectura-se que a discórdia quântica é que poderia estar associada às vantagens de um sistema quântico .

Em função disso, tanto a discórdia como o emaranhamento passaram a ser reconhecidos como úteis para a realização de tarefas em um computador quântico. No entanto, sistemas não emaranhados dotados de discórdia teriam a vantagem de ser mais robustos à ação do meio externo, uma vez que o emaranhamento pode desaparecer subitamente, em um fenômeno chamado “morte súbita”.

“Nosso maior interesse, no momento, é avançar na compreensão da origem da vantagem dos computadores quânticos. Se soubermos isso, poderemos construir dispositivos mais eficientes, consumindo menos recursos para controlar sua coerência”, disse Serra.

De acordo com o pesquisador, o grupo de físicos brasileiros foi o primeiro a utilizar técnicas de ressonância magnética nuclear para medir a discórdia quântica de forma direta e se tornou referência mundial na área.

Para realizar as medições, o grupo de pesquisadores da UFABC se associou inicialmente ao grupo liderado pelo professor Tito José Bonagamba, do Instituto de Física da Universidade de São Paulo (USP), campus de São Carlos, que coordenou os primeiros experimentos por meio do projeto“Manipulação de spins nucleares através de técnicas de ressonância magnética e quadrupolar nuclear”, também realizado com apoio da FAPESP.

Os experimentos mais recentes foram realizados por meio de uma colaboração entre os pesquisadores da UFABC e da USP de São Carlos com um grupo de pesquisa do Centro Brasileiro de Pesquisas Físicas (CBPF), no Rio de Janeiro, liderado pelo professor Ivan Oliveira. Os pesquisadores também contaram com o apoio do Instituto Nacional de Ciência e Tecnologia de Informação Quântica (INCT-IQ).

“Nesse momento, estão sendo desenvolvidos no CBPF métodos para lidar com sistemas de três e quatro bits quânticos que, associados às técnicas que desenvolvemos para medir a discórdia quântica e outras propriedades, permitirão testarmos protocolos mais complexos em ciência da informação quântica como, por exemplo, de metrologia e de máquinas térmicas quânticas”, contou Serra.

Os artigos Experimentally Witnessing the Quantumness of Correlations e Environment-Induced Sudden Transition in Quantum Discord Dynamics, de Serra e outros (doi: 10.1103/PhysRevLett.107.070501 e 10.1103/PhysRevLett.107.140403), ), publicados naPhysical Review Letters, podem ser lidos emlink.aps.org/doi/10.1103/PhysRevLett.107.070501 elink.aps.org/doi/10.1103/PhysRevLett.107.140403.

Women in Prison: An Issue of Blaming the Individual for Social Problems (Science Daily)

Science Daily (Oct. 11, 2011) — Researchers have long claimed that physical abuse and marginalization lead to criminal activity; however, women in prison are taught to overlook socioeconomic issues and blame only themselves for their behavior, according to a new study published in SAGE Open.

Authors Traci Schlesinger and Jodie Michelle state that there is a real connection between the type of abuse experienced by women, marginalization, and whether or not they will turn to drugs and criminal activity to cope with their experiences. Still, the authors contend current psychiatric and popular discourse portrays female incarceration as the result of poor choices and bad behavior “rather than identifying structural conditions that lead to imprisonment — including changes in laws, racist and sexist legislation, poverty, lack of resources and jobs, and social vulnerability over the course of one’s life.”

The authors analyzed surveys from 170 incarcerated women as well as personal history interviews conducted with 11 formerly imprisoned women and found that women who experience non-sexual physical abuse as well as any type of abuse as adults are more likely to begin using drugs, while women who are victims of sexual abuse as children claim that their imprisonment is a direct, nearly inevitable result of their abuse. They also found that marginalized women (such as women whose parents were also incarcerated and women who were unemployed at the time of their arrest) are more likely to turn to drugs to deal with interpersonal violence than women with the resources to find other ways to cope with their experiences of violence.

“Having few or no options because of their marginalized socioeconomic positions, entrenched racial inequality, and repeated episodes of violence, respondents indicated that criminalized activities became survival mechanisms, which led to incarceration,” write the authors.
The authors point to institutional change and support systems for victims of abuse as a way to prevent female criminal activity.

The authors wrote, “Radical education, community support, decriminalization, job creation, and automatic expungement could work together to push back against the web of interpersonal and state violence experienced by so many marginalized women.”

MP3 Players ‘Shrink’ Our Personal Space (Science Daily)

Science Daily (Oct. 12, 2011) — How close could a stranger come to you before you start feeling uncomfortable? Usually, people start feeling uneasy when unfamiliar people come within an arm’s reach. But take the subway (underground rail) during rush hour and you have no choice but to get up close and personal with complete strangers.

Researchers at Royal Holloway, University of London wanted to find out whether there is a way to make this intrusion more tolerable. Their results, published in the journal PLoS One, reveal that listening to music through headphones can change people’s margins of personal space.

Dr Manos Tsakiris, from the Department of Psychology at Royal Holloway, said: “This distance we try to maintain between ourselves and others is a comfort zone surrounding our bodies. Everyone knows where the boundaries of their personal space are even though they may not consciously dictate them. Of course personal space can be modified for example in a number of relationships including family members and romantic partners, but on a busy tube or bus you can find complete strangers encroaching in this space.”

The study, led by Dr Tsakiris and Dr Ana Tajadura-Jiménez from Royal Holloway, involved asking volunteers to listen to positive or negative emotion-inducing music through headphones or through speakers. At the same time, a stranger started walking towards them and the participants were asked to say “stop” when they started feeling uncomfortable.

The results showed that when participants were listening to music that evoked positive emotions through headphones, they let the stranger come closer to them, indicating a change in their own personal space. Dr Tajadura-Jiménez explains: “Listening to music that induces positive emotions delivered through headphones shifts the margins of personal space. Our personal space “shrinks,” allowing others to get closer to us.”

Dr Tsakiris added: “So next time you are ready to board a packed train, turn on your mp3 player and let others come close to you without fear of feeling invaded.”

Saber tradicional e lógica científica beneficiam a pesca (Agência USP)

Por Sandra O. Monteiro
Publicado em 13/outubro/2011

Cotidiano e tradições são relevantes para pesca e políticas regionais

Na Lagoa dos Patos, no Rio Grande do Sul, um desacordo entre a forma de exploração de uma comunidade de pescadores e a maneira de pensar a exploração de alguns pesquisadores das ciências naturais impede que políticas públicas para a região sejam efetivas. Isso estimula movimentos socias de desobediência civil contrários a normas estatais firmadas apenas em conceitos “científicos”.

A comunidade em questão está localizada na Ilha dos Marinheiros, segundo distrito da cidade de Rio Grande (RS), na Lagoa dos Patos. O local foi base de um estudo etnográfico desenvolvido pelo oceanógrafo Gustavo Moura, desenvolvido durante seu mestrado no Programa de Pós-graduação em Ciência Ambiental (Procam) da USP. Segundo o pesquisador, as comunidades locais denominam “nosso mar” o pedaço da Lagoa dos Patos em que cada grupo vive e desenvolve sua pesca. “Tal desentendimento impede que políticas públicas para a região sejam efetivas e atuem realmente na conservação dos recursos naturais ou na expansão das liberdades de quem vive da pesca na região”, observa Moura.

A pesquisa foi realizada por meio da vivência (observação de fenômenos naturais e sociais) e de entrevistas com os moradores locais. Para o pesquisador, a ciência por meio de suas metodologias e cálculos não consegue respostas para todos os fatos ou para dar a efetiva precisão a dados sobre fenômenos naturais. E as respostas que a ciência oferece é apenas uma das formas culturais de ver o mundo. A oceanografia clássica, por exemplo, preocupa-se em preservar o ambiente dentro de uma perspectiva exclusiva de análise técnica de um suposto comportamento matemático da natureza. Esquece, no entanto, que nem tudo é exato e exclui, da sua busca por respostas, o diálogo com as ciências humanas e as culturas tradicionais por considerá-las imprecisas. À respeito disto, Moura diz que a ciência oceanográfica não deve ser desconsiderada, mas experiências e valores humanos também são relevantes no estudo de fenômenos naturais e na formulação de políticas públicas.

Oceanografia Humana e Políticas Públicas

A etnoocenagrafia, uma das linhas de pesquisa da Oceanografia Humana, considera as tradições e observações sobre a natureza, que passam de pai para filho, que levam em conta o tempo cíclico da natureza (o vento, a lua e as chuvas, por exemplo). Além disso também observam a forma como cada comunidade interage com o “seu próprio mar” a partir de situações de comércio e em datas religiosas como a Páscoa “em que muitos pescadores não trabalham”, relata o pesquisador.

Oceanografia e antropologia favorecem conservação de recursos pesqueiros

Uma das questões polêmicas relaciona-se à melhor época para se pescar uma determinada espécie. Tem a ver com o tamanho do camarão-rosa, por exemplo. Nem sempre a melhor época para se pescar é de 01 de fevereiro a 31 de maio, como determina a lei de defesa do Instituto Brasileiro do Meio Ambiente e dos Recursos Naturais (Ibama). “Pois a natureza vista pelos pescadores tem uma lógica diferente da lógica científica. Uma espécie atinge o tamanho considerado bom pelos pescadores, frequentemente, numa data diversa da prevista em lei em quase todos os anos, antes ou depois de primeiro de fevereiro”, reflete o Moura.

A troca de informações diárias entre os próprios pescadores é outra situação que alguns pesquisadores e agentes de fiscalização locais não entendem e discriminam pela fato de ocorrerem em festas e bares. Estas trocas de informação tem relação, por exemplo, com a construção das decisões de quando, como e onde pescar dentro do território tradicional de pesca e com um conjunto de relações sociais instituídas pela posse informal de “pedaços de mar”.

Segundo Moura, quando regras tradicionais de uso dos recursos naturais são incorporadas nas políticas públicas, elas podem trazer menores prejuízos ambientais do que se baseadas em pura lógica científica. “Além disso, pode trazer mais liberdade para os pescadores trabalharem, em vez da castração de liberdades como ocorre com a política atual.”

A dissertação Águas da Coréia: pescadores, espaço e tempo na construção de um território de pesca na Lagoa dos Patos (RS) numa perspectiva etnooceanográfica foi orientada pelo professor Antonio Carlos Sant’Ana Diegues. O estudo será publicado na forma de livro pela editora NUPEEA, em 2012. “Águas da Coréia…” será o primeiro livro de etnooceanografia já publicado dentro e fora do Brasil, e uma das poucas publicações disponíveis na área de Oceanografia Humana.

Com informações da Agência Universitária de Notícias (AUN)
Fotos cedidas pelo pesquisador

January Field School in Ethnographic Methods in Uruguay

3rd CIFAS Field School in Ethnographic Research Methods

3 to 13 January 2012 – Montevideo, Uruguay

The Comitas Institute for Anthropological Study (CIFAS) is pleased to announce the 3rd CIFAS Field School in Ethnographic Research Methods, in Montevideo, Uruguay.

The goal of the Field School is to offer training in the foundations and practice of ethnographic methods. The faculty works closely with participants to identify the required field methods needed to address their academic or professional needs. The Field School is designed for people with little or no experience in ethnographic research, or those who want a refresher course. It is suitable for graduate and undergraduate students in social sciences and other fields of study that use qualitative approaches (such as education, communication, cultural studies, health, social work, human ecology, development studies, consumer behavior, among others), applied social scientists, professionals, and researchers who have an interest in learning more about ethnographic methods and their applications.

Program:

· Foundations of ethnographic research

· Social theories in the field: research design

· Planning the logistics of field research

· Data collection techniques

· Principles of organization and indexation of field data

· Analyzing field data

· Qualitative analysis softwares: basic principles

· Individual, one-on-one discussion of research projects

· Short field trips in the interior of Uruguay

 

Coordinators:

Renzo Taddei (Assistant Professor, Federal University of Rio de Janeiro/Affiliated Researcher, Columbia University). CV:http://bit.ly/nueNbu.

Ana Laura Gamboggi (Postdoctoral fellow, University of Brasilia). CV:http://bit.ly/psuVyw.

Assistant Instructors:

Maria Fernanda de Torres Álvarez (M.A. in Anthropology, University of the Republic of Uruguay)

Zulma Amador (Ph.D. candidate, Center for Research and Higher Studies in Social Anthropology, Mexico)

 

Registration and other costs: Places are limited. The registration fee is US$600, which covers the full ten days of program activities. The registration fee should be paid on the first day of the program. Pre-registration should be completed online: please send an email to rrt20@columbia.edu, with name, school/institution, contact address and telephone number. The deadline for pre-registration is December 16, 2011.

The registration fee does not cover accommodation, meals or transportation. If needed, the organizers of the Field School can recommend reasonably priced hotels and places to eat during the program. In Uruguay, accommodation, meals and local transportation costs should be no more than US$100 per day in total.

Course venue: Classes will take place in the beautiful Zonamerica Foundation headquarters (refer to http://bit.ly/pBjcJY), an educational institution within walking distance of good restaurants, and the very comfortable Regency Hotel (http://bit.ly/ec7JTA). Other hotels and hostels are available around Montevideo, with easy access to public transportation to and from Zonamerica.

Other information

Language: The Field School activities will be carried out in English. Special sections of the Field School can be offered in Spanish or Portuguese, depending on the number of interested individuals. The Zonamerica Foundation will offer a Spanish Language Immension Course during the same period as the Field School, and arrangements can be made for interested students to attend both the Field School and the Spanish classes. For more information on the Spanish Language Immension Course, write to Ana or Andrea at recepcion@zonamerica.org.

Visa requirements: Citizens of the U.S. and most Latin American and European countries don’t need visas to enter Uruguay, but do need valid passports (except for citizens of countries that are Mercosur members). You can check whether you need a visa here: http://www.dnm.minterior.gub.uy/visas.php.

Insurance: Participants are required to have travel insurance that covers medical and repatriation costs. Proof of purchase of travel insurance must be presented at registration.

Weather: The average temperature in Montevideo in January is 28 ºC (83 ºF) during the day and 17 ºC (62 ºF) at night.

For more information, please write to Renzo Taddei at rrt20@columbia.edu.

Book transubstantiation (The Economist)

Media digitisation

Oct 11th 2011, 11:02 by G.F. | SEATTLE

ONCE Babbage buys a book he finds it hard to let go. As middle age approaches, however, and shelf space grows sparse, he has begun to shed titles, retaining only those he actually expects to consult in the future (plus a handful he holds on to for purely sentimental reasons). Now, a firm is offering to slake his voracious appetite for new tomes without forcing him to relinquish old ones—or, at least, their contents.

1DollarScan is the American outpost of the Japanese firm Bookscan, founded to solve the problem of  scant space in Japan’s poky urban dwellings and to prevent damage caused by bookshelf-toppling earthquakes. (Bookscan has  no relation to Nielsen BookScan, an American retail-sales-tracking service). Ship your volumes to 1DollarScan, and the company will slice off the spine, and charge $1 for every 100 pages scanned. (The firm also scans routine documents and photos.) It uses high-speed Canon scanners, with optical-character recognition (OCR) software developed jointly by Bookscan and Canon. The process does not yet produce text in standard e-book formats; instead, customers receive PDF files that show the scanned image, but also have whatever text was successfully extracted in a separate, searchable layer. The resulting files are chunky: tens of megabytes per book, or 100 times bigger than Amazon’s Kindle titles. But it is a start.

Hiroshi Nakano, the boss of 1DollarScan, says a few thousand books have been received in the first month or so of operation. And that is before the firm has begun its marketing drive, or adapted its Japanese-language smartphone software (for reading and managing user accounts) for English speakers. One early surprise has been the linguistic diversity of books sent over: besides English, there have been Portuguese, Hebrew and Arabic titles, among others. Boxes of books are being shipped in from Europe, too, in English and other languages. (The firm uses slightly different OCR software depending on the language in question.) Another difference is the volume of individual orders. Where Japanese customers send batches of 150 books, the California-based service is seeing an average closer to 30.

Chopped-up books are recycled; they are not retained and the firm will not return the pieces. Jessamyn West, a library-technology advocate and editor at the popular community discussion site MetaFilter, calls it “the transubstantiation of the printed word”. Initially, Ms West shared Babbage’s squeamishness about putting books to the knife. But she has bought the argument that there is a huge difference between destroying the very last copy of a work, or one with handwritten annotations, and a mass-market duplicate. A digital copy of the latter is just as useful as the paper version.

The reason for discarding the paper pages after scanning has to do with the ambiguous borders of American copyright law. Mr Nakano and his legal advisers believe that portions of doctrine (related to so-called fair use and first sale) protect the firm’s activities. Yet this remains far from assured. Under fair use individuals have the right to copy music they own for personal use (though the jury is still out on whether this extends to ripping digital files). But that pertains only to music, not to any other media. First-sale doctrine, meanwhile, lets one sell, loan, donate or even destroy a book without permission from the copyright holder. Transforming it, however, is another matter altogether.

As a consequence, when 1DollarScan scans a particular edition for the first time, it does not create a master copy. Instead, each book is treated as a unique item, even if that same edition has already been scanned a number of times for different customers. This strategy sets 1DollarScan apart from MP3.com. In 2001 that company allowed subscribers to access master digital copies of music online after they had confirmed ownership by inserting the appropriate audio CD into their computer. What did for MP3 was that its system could be easily gamed—by duplicating CDs, say. It was forced to settle a lawsuit and discontinued the service.

Mr Nakano, for his part, hopes to strike deals with publishers to allow 1DollarScan’s customers to trade in an analogue copy for a digital one. Publishers would get a slice of the fee and remove a second-hand copy from the market making space for spanking new digital ones they sell. If all goes to plan, customers may get their hands on digital copies of works that may not otherwise be available as e-books. And, crucially, they could avoid purchasing content they have already paid for.

[Original article here.]

Tim Ingold: Projetando ambientes para a vida – um esboço (Blog Noquetange)

Projetando ambientes para a vida – um esboço*
Por Maycon Lopes
10/10/2011

Imbuído de pensar uma antropologia do vir-a-ser, uma antropologia do devir, quer dizer, aquela que não seja sobre as coisas, mas que se mova com elas, Ingold esboçou, no que os organizadores chamaram desde o início da série de conferências na UFMG de sua “grande conferência”, críticas e proposições para trilharmos o futuro. Trilhar não se trata de percorrer um caminho pré-definido; é deixar pegadas no seu percorrer, marcar com trilho, traçar. O traçado é como um desenho, um projeto, e o ato de fazê-lo já nos desloca da condição de “meros usuários” do design. Para Ingold, os designs têm de falhar, para que o futuro possa deles se apropriar, destruí-los. Eles poderiam ser pensados como previsões – e toda previsão é errada. Ou, seguindo a linha de análise deleuziana, o design poderia ser compreendido como uma tentativa de controlar o devir.

Tim Ingold propõe que ele (o design) seja concebido, no âmbito de um processo vital cuja essência é de abertura e improvisação, como um aspecto, menos como meta pré-determinada que como a continuidade de um andamento. Neste sentido, o design seria produção de futuros e não definição de. Essa ideia contudo contrasta – e esse é o ponto, creio eu, de Ingold e desse post – com a forma como tem sido predominantemente compreendida a natureza no discurso tecnocientífico: com objetivos precisos, o ambiente seria nada mais que um meio, uma coisa manipulável, vida sequestrada tendo em vista a atingir determinados fins. A natureza dos cientistas e dos criadores de política é conhecida através de cálculos, gráficos, imagens independentes daquelas do mundo que conhecemos (ou mundo fenomenal) e com o qual estamos familiarizados pelo próprio habitar. Essa dissociação artificial, que para nós aparece na figura do “globo”, espaço a que não sentimos pertencer, em contraposição com a terra, que de fato habitamos, é um modo nada adequado de abordar as constantes ameaças sofridas pela natureza. A mesma dissociação provoca uma lacuna entre o mundo diário e o mundo projetado pelos instrumentos de conhecimento a que me referi anteriormente, opondo conhecimento do habitante a conhecimento científico, como se os cientistas não habitassem mundo.

Uma expressão muito em voga como “desenvolvimento sustentável”, em geral usada tanto por políticos como por grandes corporações com intuito de proteger o lucro, é amparada por registros contábeis, ou pela perspectiva, segundo Tim Ingold do ex-habitante. Nós outros, habitantes, não temos acesso a essa linguagem contábil, e somos assim furtados da responsabilidade de cuidar do meio ambiente, sendo dele (verticalmente) expelidos, em vez de fazer do mesmo um projeto comum, pela via do que Ingold denominou de “projetar ambientes para a vida”. Repousaria pois na unidade da vida esse elo ontológico, unidade esta que nem o catálogo taxonômico “biodiversidade” e nem a concepção kantiana de superfície – palco das nossas habilidades – dão conta. Tim Ingold se esforça, em nome de uma vida social sempre indivisível da vida ecológica (se é que é possível já assim polarizá-las – ressalta Ingold), por uma genealogia da unidade da vida, uma partilha histórica entre sociedade e natureza, sendo a última em geral concebida como facticidade, coisa bruta do mundo.

Para Ingold os conceitos são inerentemente políticos, e deste modo é interessante para alguns distinguir humanos de inumanos, que, embora estejam num único mundo, apenas os primeiros, pelo viés da “ação humana”, são passíveis de construir. Seriam assim os humanos “menos naturais”, todavia envolvidos mutuamente ao longo do mundo orgânico. Que pensar a respeito do vento, do sol, das árvores e suas raízes (onde residiria o seu caminhar)? Ele propõe, a fim de evitar – e agravar – essa infeliz dicotomia, a concepção de ambiente como uma zona de envolvimento mútuo, cujo relacionamento entre os seres se dá justamente por feixes de linhas, como luz, como ar, e caminhos. Contra as tentativas coercitivas de suprimir o ambiente cobrindo-o de superfícies duras/impermeáveis, Ingold oferece o rolar sobre o mundo e não através do. Segundo ele, o rolar sobre significa o nosso envolvimento com o ambiente, a nossa própria experiência, que difere do global da tecnociência. Aqui se situa o design, mas não o design que inova, e sim o design que improvisa. A inovação seria oriunda de uma leitura de “trás pra frente”, já a improvisação uma leitura do ler para a frente, por onde o mundo se desdobra. Toda improvisação para o antropólogo consiste em criatividade, e criatividade implica já crescimento. O design não prevê, o design antecipa.

Assim a sua ideia é a de caminhar com o mundo, “crescer junto”, mas não num mundo pré-ordenado e sim um mundo incipiente. O design não é uma pré-figura, mas um traço, um desenho, uma linha para uma caminhada, no entanto sempre passível de fuga do enredo como personagens de um romance – com vida própria. Ingold então defende o projetar como um verbo intransitivo, responsável – ao contrário do que pensava o pintor Paul Klee, do julgamento da forma como morte – por atribuir vida. Para a proposta de Timothy Ingold, finalmente, seria necessário o aumento da flexibilidade dos habitantes de mundo, em que tensão seria convertida em conversa, em diálogo, em projeto.

http://noquetange.wordpress.com/2011/10/10/timingold/

O tempo da meteorologia (Tome Ciência)

A meteorologia é muito mais do que dar uma olhada na previsão do tempo quando se planeja uma viagem de fim de semana. No momento em que o aquecimento global é uma ameaça, e as grandes catástrofes climáticas tornam-se cada vez mais frequentes, ressalta-se a importância e a responsabilidade dos meteorologistas. O aumento do conhecimento e as inovações tecnológicas nessa área permitem hoje prever com certa antecedência e precisão os fenômenos do clima. E retirar rapidamente pessoas de áreas de risco pode salvar muitas vidas. O tema deste debate foi sugerido pela Sociedade Brasileira de Meteorologia, instituição vinculada à Sociedade Brasileira para o Progresso da Ciência – a SBPC.

Participantes:

Carlos Afonso Nobre, secretário de Políticas e Programas de Pesquisa e Desenvolvimento do Ministério da Ciência e Tecnologia (MCT), dirigiu por mais de 10 anos o Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais (INPE) e participa da criação, em 2011, do Centro Nacional de Monitoramento e Alerta de Desastres Naturais.

Maria Gertrudes Justi da Silva, coordenadora do curso de meteorologia da Universidade Federal do Rio de Janeiro (UFRJ). Ex-presidente da Sociedade Brasileira de Meteorologia faz parte do Conselho de Coordenação das Atividades de Meteorologia, Climatologia e Hidrologia no Governo Federal.

José Marques é o presidente do Conselho Deliberativo da Sociedade Brasileira de Meteorologia. Foi da primeira turma de meteorologistas formados em universidade brasileira, graduado em 1967 pela UFRJ. Até então os cursos eram só no exterior, onde depois, na França, ele fez o pós-doutorado.

Ednaldo Oliveira dos Santos, professor adjunto do Departamento de Ciências Ambientais do Instituto de Florestas da Universidade Federal Rural do Rio de Janeiro(UFRRJ), é presidente da União Nacional dos Estudiosos em Meteorologia e representante da América do Sul no comitê internacional que estuda educação sem distância de meteorologia. É também pesquisador associado do Instituto Virtual Internacional de Mudanças Globais, da COPPE/UFRJ.

Will the information superhighway turn into a cul-de-sac because of automated filters? (The Wall Street Journal)

BOOKSHELFMAY 20, 2011
Your Results May Vary

By PAUL BOUTIN

Last year Eli Pariser, president of the board of the liberal-activist site MoveOn.org, had a shocking realization. A heavy Facebook user, he had become friends—at least on Facebook—with an assortment of conservative thinkers and pundits. As a serious thinker, he wanted to have his opinions on current events challenged by those with opposing political ideologies.

But it struck Mr. Pariser one day that he hadn’t seen a single status update from any of the loyal opposition in a while. Had his sources of conservative thought stopped posting? Had they unfriended him? No, Facebook had quietly stopped inserting their updates into his news feed on the site. Had the social-networking giant figured out that he was a liberal?

It turned out that Facebook had changed the algorithm for its news feeds, in response to its users’ complaints that they were being overwhelmed by updates from “friends” whom they hardly knew. The 600-million-member social network now filters status updates so that, by default, users see only those from Facebook friends with whom they’ve recently interacted—say, by sending a message or commenting on a friend’s post.

For Mr. Pariser, the algorithm change meant that his news feed was filtered to let him know about only the mostly left-leaning people with whom he bantered, leaving out conservative voices that he simply monitored. Facebook’s algorithm has no political parameters, but for Mr. Pariser it effectively muffled the people he most disagreed with but wanted to hear.

This sifting-out of seemingly dead connections—which might strike many people as a wonderful service—spurred Mr. Pariser to undertake a months-long exploration of the growing trend of personalized content on websites. In “The Filter Bubble,” he recounts what he found. “I was struck by the degree to which personalization is already upon us. Not only on Facebook and Google, but on almost every major site on the Web.”

It’s no secret that Amazon, for example, customizes its pages to suggest products that are most likely to be of interest, based on shoppers’ past purchases. But most Google users don’t realize that, since 2009, their search results have been gradually personalized based on the user’s location, search history and other parameters. By tracking individual Web browsers with cookies, Google has been able to personalize results even for users who don’t create a personal Google account or are not logged into one. Mr. Pariser asked two friends to search for “BP” shortly after the Deepwater Horizon oil spill last year. The two were shown strikingly different pages—one full of news about the disaster, the other mostly investor information about the energy company.

Personalization is meant to make Internet users happy: It shows them information that mathematical calculations indicate is more likely than generalized content to be of interest. Google’s personalized search results track dozens of variables to deliver the links that a user is predicted to be most likely to click on. As a result, Google users click on more of the results that they get. That’s good for Google, good for its advertisers, good for other websites and presumably good for the user.

But Mr. Pariser worries that there’s a dark downside to giving people their own custom version of the Internet. “Personalization isn’t just shaping what we buy,” he writes. “Thirty-six percent of Americans under thirty get their news through social networking sites.” As we become increasingly dependent on the Internet for our view of the world, and as the Internet becomes more and more fine-tuned to show us only what we like, the would-be information superhighway risks becoming a land of cul-de-sacs, with each of its users living in an individualized bubble created by automated filters—of which the user is barely aware.

To Mr. Pariser, these well-intended filters pose a serious threat to democracy by undermining political debate. If partisans on either side of the issues seem uninterested in the opposition’s thinking nowadays, wait until Google’s helpful sorters really step up their game.

Through interviews with influential Internet experts including Google News chief Krishna Bharat, Search Engine Land editor Danny Sullivan and Microsoft researcher Danah Boyd, Mr. Pariser exposes the problem with personalization: It’s hard enough for an army of researchers to create algorithms that can match each of us with things we like. It’s nearly impossible, by contrast, to craft a formula that will show us something we wouldn’t seek out but really ought to read—and will be glad we did. Beyond throwing random links onto a screen, it’s hard to model serendipity on a computer.

And there’s another problem with filters: People like them. The Internet long ago became overwhelming. Filters help make it manageable without our having to do the work of sorting through its content entirely by ourselves.

What to do? Mr. Pariser’s opening argument in “The Filter Bubble” is a powerful indictment of the current system. But his closing chapters fumble around in search of a solution—from individuals, from companies like Google or from government oversight. How do you tell the Internet to back it off a bit on the custom content?

For now, the best Mr. Pariser can hope for is to educate readers who don’t want to live in a solipsistic subset of the Internet, especially regarding political matters. Just knowing that Google and Facebook personalize what you see, and that you can turn it off if you want—on Facebook, click Most Recent instead of Top News atop your feed; for Google, get instructions by searching “deleting Web history”—is a good start. “The Filter Bubble” is well-timed: The threat is real but not yet pandemic. Major news sites are toying with personalization but haven’t rolled it out en masse. And in a test I conducted myself, I enlisted a handful of heavy Google users across America to search for “Bin Laden raid” soon after the event. The search results that came back were all nearly identical. To tell the truth, we were kind of disappointed.

Mr. Boutin writes about Internet technology and culture for MIT Technology Review, Wired and the New York Times.

The Filter Bubble
By Eli Pariser
The Penguin Press, 294 pages, $25.95

Nobel de Química vai para cristal que “não devia existir” (Folha de São Paulo); Nobel para cristais inusitados (Fapesp)

JC e-mail 4359, de 06 de Outubro de 2011.

Israelense mostrou que estrutura cristalina pode ser formada por padrões complexos que nunca se repetem.

Os meticulosos cadernos de laboratório do israelense Daniel Shechtman permitem datar com precisão a descoberta que acaba de render a ele o Prêmio Nobel em Química deste ano. Foi na manhã de 8 de abril de 1982 que ele usou uma série de pontos de interrogação para marcar sua surpresa com o que estava vendo no microscópio: um cristal que não deveria existir.

Para o comitê do Nobel, ele “modificou a concepção fundamental do que é um objeto sólido”, mostrando que os átomos podem se organizar em estruturas de grande complexidade, que não se repetem. Por isso, embora o achado ainda tenha pouca aplicação prática, ele foi considerado digno do prêmio.

Para Nivaldo Speziali, presidente da Sociedade Brasileira de Cristalografia, o ganhador mostrou “que a periodicidade estrutural [a repetição regular das mesmas estruturas] não é necessária na definição de cristal”. Há exemplos de materiais artificiais e naturais com os quasicristais (como são chamados) do israelense. A arte medieval bolou estruturas parecidas.

Teimosia – Shechtman precisou de muita persistência, pois a grande maioria dos cientistas duvidou de seus achados. Um deles era Linus Pauling, ganhador do Nobel em 1954, conta Speziali. Por conta das reações negativas, o israelense chegou a ser expulso do laboratório onde trabalhava nos EUA. Hoje ele está no Instituto de Tecnologia de Israel, em Haifa.

Em entrevista dada ao comitê do Nobel, Shechtman disse que sua descoberta lhe ensinou que “o bom cientista é humilde a ponto de estar disposto a considerar novidades inesperadas e violações de leis estabelecidas”.

Os quasicristais descobertos são, em sua maioria, criados artificialmente quando uma liga metálica derretida é esfriada rapidamente em uma superfície giratória. Sua estrutura tridimensional dificulta a propagação de ondas, o que define suas características peculiares. Eles são maus condutores de calor e de eletricidade, têm baixa fricção e aderência, mas são altamente resistentes e, por isso, prometem grande aplicabilidade.

Seriam bons para aço reforçado, lâminas e agulhas cirúrgicas, frigideiras e motores a diesel. Mas poucas aplicações concretas já foram desenvolvidas devido ao alto custo de produção deles. Arte islâmica já trazia padrões dos quasicristais

AIQ – O ano de 2011 é celebrado como o Ano Internacional da Química, e o Prêmio Nobel em Química dado a um físico coroa o aspecto interdisciplinar da área. A descoberta dos quasicristais, por exemplo, tem relações com a física, com a engenharia de materiais, com a matemática e até com as artes não figurativas, sem falar na própria química, é claro. O padrão não repetitivo presente nos quasicristais tem raízes matemáticas antigas. A razão das distâncias entre os átomos nesses materiais está sempre relacionada à proporção áurea, descrita pelo matemático Fibonacci no século 13 e conhecida já na Antiguidade.

Na década de 1970, Roger Penrose usou a proporção áurea para produzir mosaicos aperiódicos, imagens compostas de combinações de formas geométricas que são infinitamente variadas. Os mosaicos da arte islâmica medieval, como o do palácio de Alhambra, na Espanha, também têm o mesmo padrão dos mosaicos de Penrose e dos quasicristais.

*  *  *

Nobel para cristais inusitados

06/10/2011

Agência FAPESP – O ganhador do prêmio Nobel de Química de 2011 é Dan Shechtman, do Instituto de Tecnologia de Israel (Technion), pela descoberta dos quase-cristais. O anúncio foi feito nesta quarta-feira (05/10) pela Academia Real de Ciências da Suécia.

Diferente dos cristais, os quase-cristais são formas estruturais ordenadas, mas em padrões que não se repetem. Suas configurações não contam com as simetrias dos cristais e eram consideradas impossíveis até serem descobertas por Shechtman.

Na manhã de 8 de abril de 1982, enquanto examinava uma liga de alumínio e manganês em um microscópio eletrônico, o cientista viu uma imagem que contradizia as leis da natureza e inicialmente duvidou do que havia observado.

Mais difícil foi convencer a comunidade científica de que se tratava de uma importante descoberta. Um dos que duvidaram foi Linus Pauling, ganhador do Nobel de Química em 1954.

Em toda matéria sólida, até então se achava que os átomos se agrupavam dentro de cristais em padrões simétricos repetidos periódica e constantemente. Para os cientistas, essa repetição era fundamental de modo a se obter um cristal.

A imagem vista por Shechtman mostrava algo diferente: que átomos em um cristal poderiam ser agrupados em um padrão que simplesmente não se repetiria jamais. A descoberta foi tão polêmica que o próprio cientista foi convidado a deixar o grupo de pesquisa do qual fazia parte. O diretor do laboratório até mesmo lhe deu um manual de cristalografia, aconselhando-o a estudar mais.

Mas o tempo e outras pesquisas mostraram que Shechtman estava certo e sua descoberta acabou alterando o conceito e o conhecimento sobre a matéria sólida.

Mosaicos não periódicos, como os medievais encontrados em construções islâmicas – tal qual o palácio de Alhambra, na Espanha, ou a mesquita Darb-i Imam, no Irã, ajudaram os cientistas a entender como os quase-cristais se parecem no nível atômico.

Assim como os quase-cristais, esses mosaicos têm padrões regulares, que seguem regras matemáticas, mas nunca se repetem.

Depois da descoberta de Shechtman, outros cientistas produziram diversos tipos de quase-cristais em laboratório. Na natureza, essas formas inusitadas também são encontradas. Foram observadas em amostras de minerais de um rio na Rússia e em um tipo de aço feito na Suécia.

Quase-cristais estão sendo experimentados nos mais variados produtos, de frigideiras e motores a diesel.

Shechtman receberá 10 milhões de coroas suecas (cerca de R$ 2,8 milhões) em cerimônia em dezembro, em Estocolmo.

Making Funny with Climate Change (The Yale Forum on Climate Change & The Media)

Keith Kloor   September 30, 2011

Comedy may be able to make inroads with audiences in ways that ‘serious journalism’ often cannot. With an issue as serious as climate science suggests, communicators should not shy from taking the risks of injecting humor as appropriate.

 

Last week, Colorado-based science journalist Michelle Nijhuis lamented the standard environmental news story. She wrote:

“Environmental journalists often feel married to the tragic narrative. Pollution, extinction, invasion: The stories are endless, and endlessly the same. Our editors see the pattern and bury us in the back pages; our readers see it and abandon us on the subway or in the dentist’s office.”

 

Commentary 

A welcome exception to this rule, Nijhuis noted, was New Yorker writer Ian Frazier, who has injected humor into the many environmentally themed nonfiction pieces he’s penned over the years.

This might also be the key to the success of Carl Hiaasen‘s best-selling novels. There is nothing new about the sleazy politics and environmental destruction that are regular themes of his books. But it gets digested through wickedly funny scenes and lampooned characters. There are no sacred cows, either. Tree huggers and traditional eco-villains get equally caricatured.

Writers have had a harder time using humor to communicate global warming. In the non-fiction universe, there are no Ian Fraziers tackling the issue in a quirky, sideways manner. Journalists in mainstream media treat the topic somberly and dutifully. Exhaustion may be setting in for some. Recently NPR’s Robert Krulwich wrote:

“I got a call the other day from some producer I very much admire. They wanted to talk about a series next year on global warming and I thought, why does this subject make me instantly tired? Global warming is important, yes; controversial, certainly; complicated (OK by me); but somehow, even broaching this subject makes me feel like someone’s putting heavy stones in my head.”

But if reporters are getting jaded, TV writers and comedians are eagerly joining the fray. Recent satirical novels by acclaimed writers, such as Jonathan Franzen and Ian McEwan have also tackled climate change.

Whether any of these pop culture and high-minded literary endeavors is influencing attitudes is impossible to know. Still, some climate communicators see humor as their best chance to make climate issues resonate with the public at large, though the tact can be a double-edged sword, as one climate campaigner notes:

“Humor’s capacity for radical imagination creates a mental space for potential change but also comes with a loss of control as it breaks taboos and turns the order of reality upside down and inside out. Indeed, because of this ability to destabilize the established order, George Orwell stated that every joke is a tiny revolution. It denudes power of its authority, which is true of those that we oppose but also those that we cherish. Using humor to communicate on climate change means that scientists and environmentalists lose the monopoly on framing climate change and even risk becoming the butt of the joke. However uncomfortable, this may be necessary if we truly want the public at large to take ownership of the issue.”

That some attempts at humor can backfire has already been demonstrated. But if the stakes are as high as climate science suggests, then that’s a risk climate communicators should not be afraid to take.

Keith Kloor

Keith Kloor is a New York City-based freelance journalist who writes often about the environment and climate change. (E-mail: keith@yaleclimatemediaforum.org)

A Map of Organized Climate Change Denial (Dot Earth, N.Y. Times)

October 2, 2011, 3:51 PM

By ANDREW C. REVKIN

Oct. 3, 9:00 p.m. | Updated 
A chart of “key components of the climate change denial machine” has been produced by Riley E. Dunlap, regents professor of sociology at Oklahoma State University, and Aaron M. McCright, an associate professor of sociology at Michigan State University. The diagram below (reproduced here with permission) is from a chapter the two researchers wrote on organized opposition to efforts to curb greenhouse gases for the new Oxford Handbook of Climate Change and Society.
That there are such well-financed and coordinated efforts is not contentious. And this is not the first attempt to map them.

But it’s important to keep in mind that not everyone skeptical of worst-case predictions of human-driven climate disruption, or everyone opposed to certain climate policies, is part of this apparatus.

And there’s plenty to chart on the other edge of the climate debate — thosegroups and outlets pursuing a traditional pollution-style approach to greenhouse gases.

[Oct. 3, 9:00 p.m. | Updated As it happens, the blogger behind Australian Climate Madness has posted a skeptics’ map of “the climate alarmism machine.” (see below) I think some, though by no means all, aspects of the map are not bad. But, as with so much of the climate debate, it is an overdrawn, overblown caricature of reality.]

It’s also important to examine whether a world without such efforts — in which citizens had a clear view of both what is known, and uncertain, about the human factor in shaping climate-related risks — would appreciably change. Some insist the answer is yes. Given the deep-rooted human bias tothe near and now and other aspects of our “inconvenient mind,” I’m not nearly so sure (although this doesn’t stop me from working on this challenge, of course).