Arquivo da categoria: Uncategorized

Oxford’s Halley Professor on How the Climate Challenge Could Derail a Brilliant Human Destiny (Dot Earth/NYT)

By 

FEBRUARY 15, 2016 9:04 AM February 15, 2016 9:04 am

Updated, 11:51 p.m. | Sustained large investments in fundamental science paid off in a big way last week, as Dennis Overbye so beautifully reported in The Times’s package on confirmation of Einstein’s 1916 conclusion that massive moving objects cause ripples in spacetime — gravitational waves.

Raymond Pierrehumbert, a climate scientist and the Halley Professor of Physics at Oxford University.

Raymond Pierrehumbert, a climate scientist and the Halley Professor of Physics at Oxford University. Credit Eva Dalin, Stockholm University

This finding, and the patient investments and effort through which it was produced, came up in the context of humanity’s global warming challenge in an email exchange a few days ago with Raymond T. Pierrehumbert, a veteran climate scientist who was recently appointed the Halley Professor of Physics at Oxford University.*

The common context is the importance of sustained engagement on a big challenge — whether it is intellectual, as in revealing spacetime ripples, or potentially existential, as in pursuing ways to move beyond energy choices that are reshaping Earth for hundreds of generations to come.

I reached out to Pierrehumbert because he is one of many authors of “Consequences of twenty-first-century policy for multi-millennial climate and sea-level change,” an important new Nature Climate Change analysis reinforcing past work showing a very, very, very long impact (tens of millenniums) on the Earth system — climatic, coastal and otherwise — from the carbon dioxide buildup driven by the conversion, in our lifetimes, of vast amounts of fossil fuels into useful energy.

The core conclusion:

This long-term view shows that the next few decades offer a brief window of opportunity to minimize large-scale and potentially catastrophic climate change that will extend longer than the entire history of human civilization thus far. [Read the Boston College news release for even more.]**

summary from Columbia University’s Lamont-Doherty Earth Observatory captures the basic findings:

Humans have been burning fossil fuels for only about 150 years, yet that has started a cascade of profound changes that at their current pace will still be felt 10,000 years from now.

Here’s a snippet from a figure in the paper showing how arguments about the pace of coastal change between now and 2100 distract from a profoundly clear long-term reality — that there will be no new “normal” coastal for millenniums, even with aggressive action to curb emissions:

Photo

A detail from a figure in a new paper shows the projected possible rise in sea levels over the next 10,000 years from today under four levels of emissions of heat-trapping greenhouse gases. The highest blue line at right is 50 meters (164 feet) above today’s sea level. Even the lowest scenario eventually floods most of today’s coastal cities.<br /><br />The darker line to the left of today marks sea levels over the last 10,000 years — a geological epoch called the Holocene. The figures below show ice amounts on Greenland and Antarctica today and if humans burn most known fossil fuels. <a href="http://www.nature.com/nclimate/journal/vaop/ncurrent/fig_tab/nclimate2923_F2.html">The full figure and legend is here.</a>
A detail from a figure in a new paper shows the projected possible rise in sea levels over the next 10,000 years from today under four levels of emissions of heat-trapping greenhouse gases. The highest blue line at right is 50 meters (164 feet) above today’s sea level. Even the lowest scenario eventually floods most of today’s coastal cities.

The darker line to the left of today marks sea levels over the last 10,000 years — a geological epoch called the Holocene. The figures below show ice amounts on Greenland and Antarctica today and if humans burn most known fossil fuels. The full figure and legend is here.Credit Nature Climate Change

I’d asked Pierrrehumbert to reflect on the time-scale conundrum laid out in the Nature Climate Change paper in the context of another important and provocative proposal by Princeton’s Robert Socolow, published in the Bulletin of the Atomic Scientists in December, proposing a new field of inquiry — Destiny Studies — to examine the tough intersection of ethics, risk perception and science. His essay is titled, “Climate change and Destiny Studies: Creating our near and far futures.” Here’s the abstract:

Climate change makes stringent demands on thinking about our future. We need two-sided reasoning to contend equitably with the risks of climate change and the risks of “solutions.” We need to differentiate the future 500 years from now and 50 years from now. This essay explores three pressing climate change issues, using both the 500-year and the 50-year time frames: sea level rise, the nuclear power “solution,” and fossil carbon abundance.

Here’s Pierrehumbert’s “Your Dot” contribution, tying together these elements:

The day of the release of the spectacular LIGO gravitational wave discovery is a good time to be pondering human destiny, the great things we can achieve as a species if only we don’t do ourselves in, and the responsibility to provide a home for future generations to flourish in. It is beyond awesome that we little lumps of protoplasm squinting out at the Universe from our shaky platform in the outskirts of an insignificant galaxy can, after four decades of indefatigable effort, detect and characterize a black hole merger over a billion light years away.

This is just one of the most dramatic examples of what we are capable of, given the chance to be our best selves. In science, I’d rate the revolution in detecting and characterizing exoplanets way up there as well. There’s no limit to what we can accomplish as a species.

But we have to make it through the next two hundred years first, and this will be a crucial time for humanity. This is where Destiny Studies and our paper on the Anthropocene come together. The question of why we should care about the way we set the climate of the Anthropocene is far better answered in terms of our vision for the destiny of our species than it is in terms of the broken calculus of economics and discounting.

For all we know, we may be the only sentience in the Galaxy, maybe even in the Universe. We may be the only ones able to bear witness to the beauty of our Universe, and it may be our destiny to explore the miracle of sentience down through billions of years of the future, whatever we may have turned into by that time. Even if we are not alone, it is virtually certain that every sentient species will bring its own unique and irreplaceable perspectives to creativity and the understanding of the Universe around us.

Thinking big about our destiny, think of this: the ultimate habitability catastrophe for Earth is when the Sun leaves the main sequence and turns into a Red Giant. That happens in about 4 billion years. However, long before that — in only about 500 million years — the Sun gets bright enough to trigger a runaway greenhouse effect and turn us into Venus, sterilizing all life on Earth. We waste half the main sequence lifetime of the Sun.

However, if we last long enough, technology will make it easy to block enough sunlight to save the Earth from a runaway, buying us another 4 billion years of habitability. That’s the only kind of albedo-modification geoengineering I could countenance, and by the time that is needed, presumably we’ll have the wisdom to deploy it safely and the technology to make it robust.

But we have to make it through the next 200 years first.

If we do what humanity has always done in the past, we’re likely to burn all the fossil fuels, and then have a hard landing at a time of high population, with an unbearable climate posing existential risks, at just the time when we’re facing the crisis fossil fuels running out. That will hardly make for ideal conditions under which to decarbonize, and there is a severe risk civilization will collapse, leaving our descendants with few resources to deal with the unbearable environment we will have bequeathed them.

It’s been pointed out that fossil fuels came in just about when we had run out of whale oil, but the whales had been hunted to the brink of extinction when that happened. If we do the same with coal, it’s not going to make for a pretty transition. With regard to the Anthropocene, it’s true that given a thousand years or so — if technological civilization survives — it becomes likely that we would develop ways to remover CO2 from the atmosphere and accelerate the recovery to more livable conditions. But if things get bad enough in the next two hundred years, we may never have that chance.

The alternative future is one where we decide to make the transition to a carbon-free economy before we’re forced into it by the depletion of fossil fuels. We’re going to run out anyway, and will need to learn to do without fossil fuels, so why not get weaned early, before we’ve trashed the climate? If we do that, we might not just buy ourselves a world, but a whole Universe.

Shorthand summary: Can we do better than bacteria smeared on agar?

This passage from a 2011 post, “Confronting the Anthropocene,” conveys my sense of the core focus of “destiny studies”:

We’re essentially in a race between our potency, our awareness of the expressed and potential ramifications of our actions and our growing awareness of the deeply embedded perceptual and behavioral traits that shape how we do, or don’t, address certain kinds of risks [or time scales].

Another author of the Nature Climate Change paper, Daniel Schrag of Harvard, gave a highly relevant talk at the Garrison Institute a couple of years ago in which he raised, but did not answer, a question I hope you’ll all ponder:

Is there a moral argument for some threshold of environmental conditions that we must preserve for future generations?

This would be a cornerstone question in destiny studies. I moderated a conversation on this question and the rest of the lecture with Schrag and Elke U. Weber of Columbia University. I hope you can spare some time to watch.

There are plenty of efforts to build such a field, including Oxford’s Future of Humanity Institute, the Frederick S. Pardee Center for the Study of the Longer-Range Future at Boston University and the Arizona State University effort I described in this post: “Building Visions of Humanity’s Climate Future – in Fiction and on Campus.”

Here are other relevant past pieces:

2015 – “Avoiding a Climate Inferno

2013 – “Could Climate Campaigners’ Focus on Current Events be Counterproductive?

2011 – “Pedal to the Metal

2010 – “Which Comes First – Peak Everything or Peak Us?

2009 – “Puberty on the Scale of a Planet

Updated, 11:50 p.m. | David Roberts at Vox today put the Nature Climate Change paper in political context when he wrote: “The U.S. presidential election will matter for 10,000 years.” Read the rest here.

Footnotes |

** This excerpt from the paper was added at 1:36 p.m.

*Pierrehumbert has contributed valuable insights here in the past, writes on Slate on occasion and is a fine accordion player. He contributed sensitively wrought parts on a song on my first album.

O painel do clima quer falar com você (Observatório do Clima)

15/02/2016

O australiano John Cook, editor do site Skeptical Science, fala durante encontro do IPCC em Oslo. Foto: Claudio Angelo/OC

O australiano John Cook, editor do site Skeptical Science, fala durante encontro do IPCC em Oslo. Foto: Claudio Angelo/OC

IPCC faz sua primeira reunião sobre comunicação disposto a mudar a cultura do segredo e a linguagem arcana de seus relatórios – mas esbarra numa estrutura de governança conservadora.

Por Claudio Angelo, do OC, em Oslo –

Luís Bernardo Valença, protagonista do romance Equador, do português Miguel de Souza Tavares, recebe do rei de Portugal uma missão virtualmente impossível: assumir o governo de São Tomé e Príncipe para convencer os compradores ingleses de cacau de que não existe trabalho escravo nas ilhas – e, ao mesmo tempo, garantir que o sistema de trabalho escravo não mude, de forma a não prejudicar a economia local.

A história guarda uma analogia com o momento pelo qual passa o IPCC, o painel do clima da ONU, que na semana passada realizou em Oslo, na Noruega, a primeira reunião de sua história dedicada à comunicação. O comitê internacional de cientistas, agraciado com o Prêmio Nobel da Paz em 2007, reconhece que a forma como se comunica com seus diversos públicos precisa mudar: os sumários de seus relatórios de avaliação são indecifráveis para leigos e para os próprios formuladores de políticas públicas a quem supostamente se dedicam; as decisões são tomadas em reuniões fechadas, o que alimenta rumores de que o painel é ora uma conspiração de ambientalistas para distorcer a ciência, ora uma vítima de ações de governos para aguar conclusões impactantes sobre a gravidade das mudanças do clima; a maneira como a incerteza e o risco são expressos pelo painel é bizantina.

A vontade de abrir-se mais ao público, porém, esbarra no conservadorismo do próprio painel, que preserva um modo de operação da década de 1990, quando lançou seu primeiro relatório de avaliação). Os métodos, as regras e os rituais do IPCC precisam permanecer os mesmos – e seus líderes parecem não querer abrir mão disso. Ao mesmo tempo, eles mesmos pedem mais transparência e mais acessibilidade. Qual é a chance de isso dar certo?

O próprio encontro de Oslo pode ser um termômetro. Foram convidados a participar cerca de 50 especialistas em comunicação do mundo inteiro e mais duas dezenas de autoridades do próprio painel. A reunião foi a primeira em toda a história do IPCC a ser transmitida ao vivo pela internet. Mas isso que só aconteceu depois da cobrança de algumas personalidades da área, como o jornalista americano Andrew Revkin. Ela foi aberta também pela internet pelo presidente do painel, o sul-coreano Hoesung Hwang. Os co-presidentes dos três grupos de trabalho que cuidam de avaliar os três grandes aspectos da mudança do clima (a base física, impactos e vulnerabilidades e mitigação) estiveram presentes o tempo todo, assim como dois dos três vice-presidentes, a americana Ko Barrett e o malês Youba Sokona. Cientistas que coordenaram a produção do AR5, o quinto relatório do IPCC, também estiveram nos dois dias de encontro.

Um consenso importante formado em Oslo foi que a comunicação precisa integrar o processo de produção dos relatórios desde o início. O modelo atual seguido pelo IPCC consiste em preparar primeiro os relatórios e então divulgá-los aos diversos públicos – tomadores de decisão, imprensa e o público geral. É o que Paul Lussier, especialista em mídia da Universidade Yale, chamou de “passar batom num porco” durante sua apresentação.

Enfeitar o suíno, até aqui, tem sido a receita para o fiasco de comunicação do painel. Isso foi mais ou menos matematicamente demonstrado pelo cientista ambiental português Suraje Dessai, professor da Universidade de Leeds, no Reino Unido, e coautor do AR5 (Quinto Relatório de Avaliação do IPCC, publicado entre 2013 e 2014). Uma análise dos sumários do IPCC conduzida por Dessai e colegas com a ajuda de softwares que olham simplicidade e legibilidade foi publicada no ano passado no periódico Nature Climate Change. O trabalho mostrou que não apenas o IPCC é menos legível do que outras publicações científicas, como também o grau de compreensibilidade dos sumários despencou de 1990 para cá.

Uma das recomendações feitas ao final do encontro, e que serão encaminhadas à plenária do IPCC em abril, é para que se incorporem comunicadores profissionais, jornalistas de ciência, psicólogos e antropólogos desde a chamada fase de “definição do escopo” dos relatórios. Isso começaria no AR6, o Sexto Relatório de Avaliação do IPCC, que deverá ser publicado em algum momento entre 2020 e 2022. Essa própria definição, que hoje é feita pelas autoridades do painel e pelos governos, poderá vir a ser realizada numa espécie de consulta pública – na qual diferentes atores, desde a sociedade civil até empresários e mesmo crianças, digam o que querem que o painel avalie sobre a mudança climática. Tamanha abertura seria uma revolução no IPCC, rompendo a lógica professoral que impera hoje na definição das perguntas às quais os relatórios tentam responder.

Outra sugestão, apresentada por um grupo que discutiu as relações entre o IPCC e os meios de comunicação, foi para que os rascunhos dos sumários executivos sejam abertos para o público antes da aprovação final pelos governos. Cada sumário passa por uma série de rascunhos até chegar ao formato final de revisão, que é enviado aos governos para comentários. Os sumários são aprovados por governos e cientistas na plenária do IPCC, onde recebem alterações finais. A regra é que os governos modifiquem muito o texto, mas – e este é um “mas” importante, porque é o que define a credibilidade do IPCC – a palavra final é sempre dos cientistas.

Os rascunhos hoje não são públicos, mas qualquer pessoa pode solicitar ao IPCC fazer parte do comitê de revisores – e ganham, assim, acesso aos documentos. Em 2013, um negacionista do clima vazou em seu blog uma versão do AR5, alegando que o painel estava escondendo evidências de que o aquecimento global se devia a raios cósmicos (não estava). A proposta apresentada em Oslo foi para que os rascunhos de revisão fossem tornados públicos, de forma a minimizar o impacto de vazamentos e a conter desinformação na imprensa.

Outras recomendações feitas em Oslo vão de dar ao site do IPCC uma nova interface pública até produzir infográficos animados da ciência avaliada pelos relatórios.

Na prática, porém, a teoria é outra: um dos dogmas do IPCC é que ele não pode produzir prescrições políticas, ou seja, precisa se limitar a dizer aos países o que acontece com o mundo em cada cenário de emissões e o que é preciso fazer para atingir níveis de emissão x, y ou z no futuro. A rigor, o painel do clima não pode incitar as pessoas a combater a mudança climática – isso seria uma posição de militância. Pior, entre os mais de 150 governos que integram o IPCC e de fato mandam nele (daí a sigla significar Painel Intergovernamental sobre Mudanças Climáticas) há os que não querem resolver o problema, porque vivem da sua causa – os combustíveis fósseis. Essas são amarras importantes à comunicação.

Outro problema é que o IPCC ainda vive no século XX, num sentido bem real. Enquanto a comunicação hoje é digital, o painel do clima decidiu, por consenso, que seus relatórios são aprovados linha por linha pelos governos – e isso significa caneta e papel. Não há nem sequer método para submeter um infográfico animado à plenária, caso alguém ache que é o caso usar esse tipo de recurso no AR6. Sugestões de ter uma equipe de vídeo acompanhando o “making of” dos relatórios foram rejeitadas no passado, porque algumas pessoas no painel não queriam que ninguém ficasse “espionando” seu trabalho. E por aí vai.

O IPCC foi criado em 1988, mas só ganhou uma estratégia de comunicação em 2012. Tem um longo aprendizado pela frente e precisa começar de algum lugar. Pessoas com quem conversei em Oslo disseram duvidar que a maior parte das recomendações seja acatada. Mas é auspicioso, num momento em que o mundo se prepara para implementar o Acordo de Paris, que o templo do conhecimento climático esteja disposto a embarcar na tarefa da comunicação. Ela é mais necessária do que nunca agora. (Observatório do Clima/ #Envolverde)

* O jornalista viajou a convite do IPCC.

** Publicado originalmente no site Observatório do Clima.

Queda de homicídios em SP é obra do PCC, e não da polícia, diz pesquisador (BBC Brasil)

Thiago Guimarães
De Londres

12/02/2016, 15h21 

Policiais militares da Rota durante operação na periferia de São Paulo

Policiais militares da Rota durante operação na periferia de São Paulo. Mario Ângelo/ SigmaPress/AE

Em anúncio recente, o governo de São Paulo informou ter alcançado a menor taxa de homicídios dolosos do Estado em 20 anos. O índice em 2015 ficou em 8,73 por 100 mil habitantes – abaixo de 10 por 100 mil pela primeira vez desde 2001.

“Isso não é obra do acaso. É fruto de muita dedicação. Policiais morreram, perderam suas vidas, heróis anônimos, para que São Paulo pudesse conseguir essa conquista”, disse na ocasião o governador Geraldo Alckmin (PSDB).Para um pesquisador que acompanhou a rotina de investigadores de homicídios em São Paulo, o responsável pela queda é outro: o próprio crime organizado – no caso, o PCC (Primeiro Comando da Capital), a facção que atua dentro e fora dos presídios do Estado.

“A regulação do PCC é o principal fator sobre a vida e a morte em São Paulo. O PCC é produto, produtor e regulador da violência”, diz o canadense Graham Willis, em defesa da hipótese que circula no meio acadêmico e é considerada “ridícula” pelo governo paulista.

Professor da Universidade de Cambridge (Inglaterra), Willis lança nova luz sobre a chamada “hipótese PCC”, num trabalho de imersão que acompanhou a rotina de policiais do DHPP (Delegacia de Homicídios e Proteção à Pessoa) de São Paulo entre 2009 e 2012.

A pesquisa teve acesso a dezenas de documentos internos apreendidos com um membro do PCC e ouviu moradores, comerciantes e criminosos em uma comunidade dominada pela facção na zona leste de São Paulo, em 2007 e 2011.

Teorias do ‘quase tudo’

O trabalho questiona teorias que, segundo Willis, procuram apoio em “quase tudo” para explicar o notório declínio da violência homicida em São Paulo: mudanças demográficas, desarmamento, redução do desemprego, reforço do policiamento em áreas críticas.

“O sistema de segurança pública nunca estabeleceu por que houve essa queda de homicídios nos últimos 15 anos. E nunca transmitiu uma história crível. Falam em políticas públicas, policiamento de hotspots (áreas críticas), mas isso não dá para explicar”, diz.

Em geral, a argumentação de Willis é a seguinte: a queda de 73% nos homicídios no Estado desde 2001, marco inicial da atual série histórica, é muito brusca para ser explicada por fatores de longo prazo como avanços socioeconômicos e mudanças na polícia.

Isso fica claro, diz o pesquisador, quando se constata que, antes da redução, os homicídios se concentravam de forma desproporcional em bairros da periferia da capital paulista: Jardim Ângela, Cidade Tiradentes, Capão Redondo, Brasilândia.

A pacificação nesses locais – com quedas de quase 80% – coincide com o momento, a partir de 2003, em que a estrutura do PCC se ramifica e chega ao cotidiano dessas regiões.

“A queda foi tão rápida que não indica um fator socioeconômico ou de policiamento, que seria algo de longo prazo. Deu-se em vários espaços da cidade mais ou menos na mesma época. E não há dados sobre políticas públicas específicas nesses locais para explicar essas tendências”, diz ele, que baseou suas conclusões em observações de campo.

Vídeo: http://tvuol.tv/bgdw3x

Canal de autoridade

Criado em 1993 com o objetivo declarado de “combater a opressão no sistema prisional paulista” e “vingar” as 111 mortes do massacre do Carandiru, o PCC começa a representar um canal de autoridade em áreas até então caracterizadas pela ausência estatal a partir dos anos 2000, à medida que descentraliza suas decisões.

Os pilares dessa autoridade, segundo Willis e outros pesquisadores que estudaram a facção, são a segurança relativa, noções de solidariedade e estruturas de assistência social. Nesse sentido, a polícia, tradicionalmente vista nesses locais como violenta e corrupta, foi substituída por outra ordem social.

“Quando estive numa comunidade controlada pela facção, moradores diziam que podiam dormir tranquilos com portas e janelas destrancadas”, escreve Willis no recém-lançado The Killing Consensus: Police, Organized Crime and the Regulation of Life and Death in Urban Brazil (O Consenso Assassino: Polícia, Crime Organizado e a Regulação da Vida e da Morte no Brasil Urbano, em tradução livre), livro em que descreve os resultados da investigação.

Antes do domínio do PCC, relata Willis, predominava uma violência difusa e intensa na capital paulista (que responde por 25% dos homicídios no Estado). Gangues lutavam na economia das drogas e abriam espaço para a criminalidade generalizada. O cenário muda quando a facção transpõe às ruas as regras de controle da violência que estabelecera nos presídios.

“Para a organização manter suas atividades criminosas é muito melhor ficar ‘muda’ para não chamar atenção e ter um ambiente de segurança controlado, com regras internas muito rígidas que funcionem”, avalia Willis, que descreve no livro os sistemas de punição da facção.

O pesquisador considera que as ondas de violência promovidas pelo PCC em São Paulo em 2006 e em 2012, com ataques a policiais e a instalações públicas, são pontos fora da curva, episódios de resposta à violência estatal.

“Eles não ficam violentos quando o problema é a repressão ao tráfico, por exemplo, mas quando sentem a sua segurança ameaçada. E a resposta da polícia é ser mais violenta, o que fortalece a ideia entre criminosos de que precisam de proteção. Ou seja, quanto mais você ataca o PCC, mais forte ele fica.”

Apuração em xeque

Willis critica a forma como São Paulo contabiliza seus mortos em situações violentas – e diz que o cenário real é provavelmente mais grave do que o discurso oficial sugere.

Ele questiona, por exemplo, a existência de ao menos nove classificações de mortes violentas em potencial (ossadas encontradas, suicídio, morte suspeita, morte a esclarecer, roubo seguido de morte/latrocínio, homicídio culposo, resistência seguida de morte e homicídio doloso) e diz que a multiplicidade de categorias mascara a realidade.

“Em geral, a investigação de homicídios não acontece em todo o caso. Cada morte suspeita tem que ser avaliada primeiramente por um delegado antes de se decidir se vai ser investigado como homicídio, enquanto em varias cidades do mundo qualquer morte suspeita é investigada como homicídio.”

Para ele, deveria haver mais transparência sobre a taxa de resolução de homicídios (que em São Paulo, diz, fica em torno de 30%, mas inclui casos arquivados sem definições de responsáveis) e sobre o próprio trabalho dos policiais que apuram os casos, que ele vê como um dos mais desvalorizados dentro da instituição.

“Normalmente se pensa em divisão de homicídios como organização de ponta. Mas é o contrário: é um lugar profundamente subvalorizado dentro da polícia, de policiais jovens ou em fim de carreira que desejam sair de lá o mais rápido possível. Policiais suspeitam de quem trabalha lá, em parte porque investigam policiais envolvidos em mortes, mas também porque as vidas que investigam em geral não têm valor, são pessoas de partes pobres da cidade.”

Para ele, o desaparelhamento da investigação de homicídios contrasta com a estrutura de batalhões especializados em repressão, como a Rota e a Força Tática da Polícia Militar.

“Esses policiais têm carros incríveis, caveirões, armas de ponta. Isso mostra muito bem a prioridade dos políticos, que é a repressão física a moradores pobres e negros da periferia. Não é investigar a vida dessas pessoas quando morrem.”

Outro lado

Críticos da chamada “hipótese PCC” costumam levantar a seguinte questão: se a retração nos homicídios não ocorreu por ação da polícia, como explicar a queda em outros índices criminais? Segundo o governo, por exemplo, São Paulo teve queda geral da criminalidade no ano passado em relação a 2014. A facção, ironizam os críticos, estaria então ajudando na queda desses crimes também?

“Variações estatísticas não necessariamente refletem ações do Estado”, diz Willis. Para ele, estudos já mostraram que mais atividade policial não significa sempre menor criminalidade.

Willis diz ainda que as variações estatísticas nesses outros crimes não são significativas, e que o PCC não depende de roubos de carga, veículos ou bancos, mas do pequeno tráfico de drogas com o qual os membros bancam as contribuições obrigatórias à facção.

A Secretaria de Segurança Pública de São Paulo disse considerar a hipótese de Willis sobre o declínio dos homicídios “ridícula e amplamente desmentida pela realidade de todos os índices criminais” do Estado.

Afirma que a taxa no Estado é quase três vezes menor do que a média nacional (25,1 casos por 100 mil habitantes) e “qualquer pesquisador com o mínimo de rigor sabe que propor uma relação de causa e efeito neste sentido é brigar contra as regras básicas da ciência”.

A pasta informou que todos crimes cometidos por policiais no Estado são punidos – citou 1.445 expulsões, 654 demissões e 1.849 policiais presos desde 2011 – e negou a existência de grupos de extermínio nas corporações.

Sobre o fato de não incluir mortes cometidas por policiais na soma oficial dos homicídios, mas em categoria à parte, disse que “todos os Estados” brasileiros e a “maioria dos países, inclusive os Estados Unidos” adotam a mesma metodologia.

A secretaria não comentou as considerações de Willis sobre a estrutura da investigação de homicídios no Estado e a suposta prioridade dada à forças voltadas à repressão.

Poor air quality kills 5.5 million worldwide annually (Science Daily)

Date: February 12, 2016

Source: University of British Columbia

Summary: New research shows that more than 5.5 million people die prematurely every year due to household and outdoor air pollution. More than half of deaths occur in two of the world’s fastest growing economies, China and India.


New research shows that more than 5.5 million people die prematurely every year due to household and outdoor air pollution. More than half of deaths occur in two of the world’s fastest growing economies, China and India. Credit: Institute for Health Metrics and Evaluation (IHME), University of Washington

New research shows that more than 5.5 million people die prematurely every year due to household and outdoor air pollution. More than half of deaths occur in two of the world’s fastest growing economies, China and India.

Power plants, industrial manufacturing, vehicle exhaust and burning coal and wood all release small particles into the air that are dangerous to a person’s health. New research, presented today at the 2016 annual meeting of the American Association for the Advancement of Science (AAAS), found that despite efforts to limit future emissions, the number of premature deaths linked to air pollution will climb over the next two decades unless more aggressive targets are set.

“Air pollution is the fourth highest risk factor for death globally and by far the leading environmental risk factor for disease,” said Michael Brauer, a professor at the University of British Columbia’s School of Population and Public Health in Vancouver, Canada. “Reducing air pollution is an incredibly efficient way to improve the health of a population.”

For the AAAS meeting, researchers from Canada, the United States, China and India assembled estimates of air pollution levels in China and India and calculated the impact on health.

Their analysis shows that the two countries account for 55 per cent of the deaths caused by air pollution worldwide. About 1.6 million people died of air pollution in China and 1.4 million died in India in 2013.

In China, burning coal is the biggest contributor to poor air quality. Qiao Ma, a PhD student at the School of Environment, Tsinghua University in Beijing, China, found that outdoor air pollution from coal alone caused an estimated 366,000 deaths in China in 2013.

Ma also calculated the expected number of premature deaths in China in the future if the country meets its current targets to restrict coal combustion and emissions through a combination of energy policies and pollution controls. She found that air pollution will cause anywhere from 990,000 to 1.3 million premature deaths in 2030 unless even more ambitious targets are introduced.

“Our study highlights the urgent need for even more aggressive strategies to reduce emissions from coal and from other sectors,” said Ma.

In India, a major contributor to poor air quality is the practice of burning wood, dung and similar sources of biomass for cooking and heating. Millions of families, among the poorest in India, are regularly exposed to high levels of particulate matter in their own homes.

“India needs a three-pronged mitigation approach to address industrial coal burning, open burning for agriculture, and household air pollution sources,” said Chandra Venkataraman, professor of Chemical Engineering at the Indian Institute of Technology Bombay, in Mumbai, India.

In the last 50 years, North America, Western Europe and Japan have made massive strides to combat pollution by using cleaner fuels, more efficient vehicles, limiting coal burning and putting restrictions on electric power plants and factories.

“Having been in charge of designing and implementing strategies to improve air in the United States, I know how difficult it is. Developing countries have a tremendous task in front of them,” said Dan Greenbaum, president of Health Effects Institute, a non-profit organization based in Boston that sponsors targeted efforts to analyze the health burden from different air pollution sources. “This research helps guide the way by identifying the actions which can best improve public health.”

Video: https://youtu.be/Kwoqa84npsU

Background:

The research is an extension of the Global Burden of Disease study, an international collaboration led by the Institute for Health Metrics and Evaluation (IHME) at the University of Washington that systematically measured health and its risk factors, including air pollution levels, for 188 countries between 1990 and 2013. The air pollution research is led by researchers at the University of British Columbia and the Health Effects Institute.

Additional facts about air pollution:

  • World Health Organization (WHO) air quality guidelines set daily particulate matter at 25 micrograms per cubic metre.
  • At this time of year, Beijing and New Delhi will see daily levels at or above 300 micrograms per cubic meter metre; 1,200 per cent higher than WHO guidelines.
  • While air pollution has decreased in most high-income countries in the past 20 years, global levels are up largely because of South Asia, Southeast Asia, and China. More than 85 per cent of the world’s population now lives in areas where the World Health Organization Air Quality Guideline is exceeded.
  • The researchers say that strict control of particulate matter is critical because of changing demographics. Researchers predict that if air pollution levels remain constant, the number of deaths will increase because the population is aging and older people are more susceptible to illnesses caused by poor air quality.
  • According to the Global Burden of Disease study, air pollution causes more deaths than other risk factors like malnutrition, obesity, alcohol and drug abuse, and unsafe sex. It is the fourth greatest risk behind high blood pressure, dietary risks and smoking.
  • Cardiovascular disease accounts for the majority of deaths from air pollution with additional impacts from lung cancer, chronic obstructive pulmonary disease (COPD) and respiratory infections.

New appreciation for human micro biome leads to greater understanding of human health (Science Daily)

Date: February 14, 2016

Source: University of Oklahoma

Summary: Anthropologists are studying the ancient and modern human micro biome and the role it plays in human health and disease. By applying genomic and proteomic sequencing technologies to ancient human microbiomes, such as coprolites and dental calculus, as well as to contemporary microbiomes in traditional and industrialized societies, Researchers are advancing the understanding of the evolutionary history of our microbial self and its impact on human health today.


University of Oklahoma anthropologists are studying the ancient and modern human microbiome and the role it plays in human health and disease. By applying genomic and proteomic sequencing technologies to ancient human microbiomes, such as coprolites and dental calculus, as well as to contemporary microbiomes in traditional and industrialized societies, OU researchers are advancing the understanding of the evolutionary history of our microbial self and its impact on human health today.

Christina Warinner, professor in the Department of Anthropology, OU College of Arts and Sciences, will present, “The Evolution and Ecology of Our Microbial Self,” during the American Association for the Advancement of Science panel on Evolutionary Biology Impacts on Medicine and Public Health, at 1:30 pm, Sunday, Feb. 14, 2016 in the Marriott Marshall Ballroom West, Washington, DC. Warinner will discuss how major events, such as the invention of agriculture and the advent of industrialization, have affected the human microbiome.

“We don’t have a complete picture of the microbiome,” Warinner said. “OU research indicates human behavior over the past 2000 years has impacted the gut microbiome. Microbial communities have become disturbed, but before we can improve our health, we have to understand our ancestral microbiome. We cannot make targeted or informed interventions until we know that. Ancient samples allow us to directly measure changes in the human microbiome at specific times and places in the past.”

Warinner and colleague, Cecil M. Lewis, Jr., co-direct OU’s Laboratories of Molecular Anthropology and Microbiome Research and the research focused on reconstructing the ancestral human oral and gut microbiome, addressing questions concerning how the relationship between humans and microbes has changed through time and how our microbiomes influence health and disease in diverse populations, both today and in the past. Warinner and Lewis are leaders in the field of paleogenomics, and the OU laboratories house the largest ancient DNA laboratory in the United States.

Warinner is pioneering the study of ancient human microbiomes, and in 2014 she published the first detailed metagenomics and metaproteomic characterization of the ancient oral microbiome in the journal Nature Genetics. In 2015, she published a study on the identification of milk proteins in ancient dental calculus and the reconstruction of prehistoric European dairying practices. In the same year, she was part of an international team that published the first South American hunter-gatherer gut microbiome and identified Treponema as a key missing ancestral microbe in industrialized societies.

A new form of frozen water? (Science Daily)

New study describes what could be the 18th known form of ice

Date:
February 12, 2016
Source:
University of Nebraska-Lincoln
Summary:
A research team has predicted a new molecular form of ice with a record-low density. If the ice can be synthesized, it would become the 18th known crystalline form of water and the first discovered in the US since before World War II.

This illustration shows the ice’s molecular configuration. Credit: Courtesy photo/Yingying Huang and Chongqin Zhu 

Amid the season known for transforming Nebraska into an outdoor ice rink, a University of Nebraska-Lincoln-led research team has predicted a new molecular form of the slippery stuff that even Mother Nature has never borne.

The proposed ice, which the researchers describe in a Feb. 12, 2016 study in the journal Science Advances, would be about 25 percent less dense than a record-low form synthesized by a European team in 2014.

If the ice can be synthesized, it would become the 18th known crystalline form of water — and the first discovered in the United States since before World War II.

“We performed a lot of calculations (focused on) whether this is not just a low-density ice, but perhaps the lowest-density ice to date,” said Xiao Cheng Zeng, an Ameritas University Professor of chemistry who co-authored the study. “A lot of people are interested in predicting a new ice structure beyond the state of the art.”

This newest finding represents the latest in a long line of ice-related research from Zeng, who previously discovered a two-dimensional “Nebraska Ice” that contracts rather than expands when frozen under certain conditions.

Zeng’s newest study, which was co-led by Dalian University of Technology’s Jijun Zhao, used a computational algorithm and molecular simulation to determine the ranges of extreme pressure and temperature under which water would freeze into the predicted configuration. That configuration takes the form of a clathrate — essentially a series of water molecules that form an interlocking cage-like structure.

It was long believed that these cages could maintain their structural integrity only when housing “guest molecules” such as methane, which fills an abundance of natural clathrates found on the ocean floor and in permafrost. Like the European team before them, however, Zeng and his colleagues have calculated that their clathrate would retain its stability even after its guest molecules have been evicted.

Actually synthesizing the clathrate will take some effort. Based on the team’s calculations, the new ice will form only when water molecules are placed inside an enclosed space that is subjected to ultra-high, outwardly expanding pressure.

Just how much? At minus-10 Fahrenheit, the enclosure would need to be surrounded by expansion pressure about four times greater than what is found at the Pacific Ocean’s deepest trench. At minus-460, that pressure would need to be even greater — roughly the same amount experienced by a person shouldering 300 jumbo jets at sea level.

The guest molecules would then need to be extracted via a vacuuming process pioneered by the European team, which Zeng credited with inspiring his own group to conduct the new study.

Yet Zeng said the wonders of ordinary ice — the type that has covered Earth for billions of years — have also motivated his team’s research.

“Water and ice are forever interesting because they have such relevance to human beings and life,” Zeng said. “If you think about it, the low density of natural ice protects the water below it; if it were denser, water would freeze from the bottom up, and no living species could survive. So Mother Nature’s combination is just so perfect.”

If confirmed, the new form of ice will be called “Ice XVII,” a naming quirk that resulted from scientists terming the first two identified forms “Ice I.”

Zeng and Zhao co-authored the Science Advances study with UNL postdoctoral researcher Chongqin Zhu; Yingying Huang, a visiting research fellow from the Dalian University of Technology; and researchers from the Chinese Academy of Sciences and the University of Science and Technology of China.

The team’s research was funded in part by the National Science Foundation and conducted with the assistance of UNL’s Holland Computing Center.


Journal Reference:

  1. Y. Huang, C. Zhu, L. Wang, X. Cao, Y. Su, X. Jiang, S. Meng, J. Zhao, X. C. Zeng. A new phase diagram of water under negative pressure: The rise of the lowest-density clathrate s-IIIScience Advances, 2016; 2 (2): e1501010 DOI: 10.1126/sciadv.1501010

Viveiros, indisciplina-te! (GEAC)

Posted on Fevereiro 12, 2016

viveiros

Por Alex Martins Moraes e Juliana Mesomo

Enquanto agita a bandeira da descolonização do pensamento e nos alimenta com uma fonte inesgotável de alteridade radical, Viveiros de Castro permanece aferrado à disciplina antropológica e ao senso comum policialesco que a sustenta. Fora da academia, contudo, sua obra vem sendo reconectada à ação política transformadora. Resta-nos, então, a esperança de que Viveiros indiscipline-se

* * *

A minha hipótese é que as teorias e disciplinas reagirão de modo não-teórico e não disciplinar quando forem objeto de questões não previstas por elas. 

Boaventura de Sousa Santos

Como eu “vivo a política?” Ora, vtnc.

Viveiros de Castro

Quando fazemos uso de nomes próprios e referências diretas a determinadas declarações públicas não estamos buscando discutir características pessoais, mas sim a relevância e o poder de interpelação de determinadas posturas teórico-políticas.

I.

Faz quarenta anos que a prática antropológica em geral e especificamente as práticas da antropologia disciplinar vêm sendo problematizadas a partir de enfoques variados em diversos países. O triunfo dos movimentos de libertação nacional em África, Ásia e Oceania, associado aos processos de descolonização epistêmica que problematizaram os regimes de representação da alteridade enraizados nas academias metropolitanas, desencadeou um movimento reflexivo que repercutiu com força nas antropologias hegemônicas. O antropólogo haitiano Michel Trouillot caracterizou tal processo como o esvaziamento empírico do “nicho do Selvagem”: enquanto disciplina, a antropologia dependia do Selvagem-objeto, mas este agora enunciava a si mesmo, sua história e seus projetos em primeira pessoa. Para Trouillot, a antropologia surgiu no final do século XIX incumbida de disciplinar o “nicho do Selvagem”, anteriormente objeto de especulações em novelas utópicas, relatos de viagens ao Novo Mundo e informes para-etnográficos. Dentro do esquema discursivo evidenciado pelo autor, o Selvagem é aquele que alimenta diferentes Utopias destinadas a refundar a Ordem, entendida como expressão da universalidade legítima. A tríade Ordem-Utopia-Selvagem que sustentava as metanarrativas ocidentais estava, no entanto, dissolvendo-se e tal processo ameaçava a autossuficiência da disciplina antropológica.

Abalados pelo impacto da crítica pós-colonial, os domínios da disciplina pareciam inférteis aos olhos daqueles que ainda cultuavam a velha e boa Antropologia, outrora presidida sem embaraço pelos mandarins de Cambridge. O setor mais cético e enclassado da disciplina manteve uma desconfiança profunda em relação a qualquer tipo de engajamento intelectual que se deixasse afetar – no tocante às suas preocupações e aos seus objetivos – por vetores políticos extra-acadêmicos. Para referido setor o panorama desolador do período que poderíamos definir como “pós-crítica” exigia Restauração. A avidez por restaurar a Antropologia encontrou eco, num primeiro momento, no cinismo de tipo geertziano. Hermenêutica em punho, Geertz profetizou que o novo destino da Antropologia seria contribuir para a expansão dos horizontes da racionalidade humana através da tradução intercultural. Malgrado seu passado colonial, a disciplina antropológica preservaria uma tendência inata de valor não desprezível: a capacidade de ouvir o outro e decodificar sua cultura. Não era exatamente disso que precisávamos num mundo marcado pela intolerância e pela incompreensão?

As alternativas a la Geertz não bastavam, contudo, para devolver à Antropologia sua antiga auto-suficiência. Passar o resto da vida operando traduções interculturais para mitigar as catástrofes da modernidade tardia não parecia um destino à altura daquela disciplina que havia dispendido boa parte do século XX na ousada tarefa de confrontar o narcisismo moderno com a imagem desafiadora do seu outro selvagem. Entretanto, a “linha forte” do restauracionismo disciplinar teria de esperar até os anos noventa para encontrar no perspectivismo ameríndio um dos seus mais promissores cavalos de batalha. A potência do paradigma esgrimido por Viveiros de Castro residia em sua capacidade de matar dois coelhos numa cajadada só: ao passo que flertava com o espírito do seu tempo, respondendo ao compromisso político com a descolonização da disciplina, também restaurava o “nicho do selvagem”, objeto que, como apontou Trouillot, havia sido herdado e nunca verdadeiramente questionado pelas expressões hegemônicas da antropologia. Na “geografia da imaginação” que engendrou o Ocidente e a antropologia disciplinar, o Selvagem foi frequentemente uma projeção utópica. “Agora, como então – diz Trouillot –, o Selvagem é apenas evidência num debate cuja importância ultrapassa não só seu entendimento, mas também sua existência. Assim como a Utopia pode ser oferecida como uma promessa ou como uma ilusão perigosa, o Selvagem pode ser nobre, sábio, bárbaro, vítima ou agressor, dependendo do debate e dos propósitos dos interlocutores” (p.67 [acessar texto aqui])

Diante do encerro de alguns antropólogos nos corredores da academia e do desinteresse de outros em vincular sua produção a grandes debates estruturais, foi Viveiros quem soube construir uma ponte entre o discurso antropológico e a formulação de enunciados políticos radicais e abrangentes. Por outro lado – e paradoxalmente – Viveiros erigiu seu lugar de fala sobre o velho “nicho do selvagem”, que agora retorna a nós em sua faceta utópica, capaz de iluminar alternativas imediatas e anistóricas às vicissitudes da modernidade ocidental. Reivindicado em entrevistas e ensaios teóricos, o Pensamento Selvagem serve de “controle” para imaginar Utopias – virtualidades que poderiam ser atualizadas em “nossa” própria antropologia, em “nosso” próprio mundo, etc. Aqui cabe recuperar novamente a súplica de Michel Trouillot: os sujeitos históricos com voz própria aos quais se reporta Viveiros merecem muito mais do que um “nicho”; merecem ser muito mais do que a projeção das ânsias de refundar a metafísica. Para o autor, devemos ser capazes de desestabilizar e, eventualmente, destruir o “nicho do Selvagem” para poder relacionar-nos com a alteridade em sua especificidade e legitimidade histórica, que sempre escapam ao universalismo. A dicotomia “nós e o resto”, implícita na ordem simbólica que engendra a ideia de Ocidente, é um construto ideológico, afinal “não há apenas um Outro, mas multidões de outros que são outros por diferentes razões, a pesar das narrativas totalizantes, incluindo a do capital” (p. 75).

Ao lançar mão do recurso ao nicho do Selvagem, Viveiros provoca um efeito de sedução que resulta não tanto das suas manobras conceituais, mas da necessidade que temos de alimentar a fonte inesgotável de exterioridade radical que poderia nos salvar do Ocidente. A outridade termina, assim, subsumida à mesmidade dos projetos de sempre – transformar a Antropologia, por exemplo. Em tal cenário, a disciplina antropológica é chamada a continuar seu trabalho, reassumindo a vocação de perscrutar fielmente o Outro selvagem refratado pela teoria de Viveiros de Castro. Trouillot vaticina: “enquanto o nicho [do Selvagem] existir, no melhor dos casos o Selvagem será uma figura de fala, uma metáfora num argumento sobre a natureza e o universo, sobre o ser e a existência – em suma, um argumento sobre o pensamento fundacional” (p. 68).

II.

Deixemos que Viveiros fale um pouco mais sobre a forma como concebe o promissor entrelaçamento entre a “nossa” Antropologia e o Pensamento Selvagem: “por transformações indígenas da antropologia entendo as transformações da estrutura conceitual do discurso antropológico suscitadas por seu alinhamento em simetria com as pragmáticas reflexivas indígenas, isto é, com aquelas etno-antropologias alheias que descrevem nossa própria (etno-) antropologia precisamente ao e por divergirem dela” (p.163 [acessar texto aqui]). O pensamento ameríndio consistiria, ele próprio, em uma ontologia política do sensível que, ao se alinhar com o discurso antropológico, se tornaria capaz de redefini-lo e de convertê-lo em enunciador de uma antropologia outra. Neste sentido, o conhecimento antropológico não operaria sobre um repertório cultural fechado em si mesmo, mas sim em meio a outro movimento reflexivo – o ameríndio – que é concebido como dinâmica ontológica transformacional capaz de instaurar, pelo menos no plano do conceito, uma mundaneidade completamente nova e potencialmente transgressora dos parâmetros epistemológicos da nossa etno-antropologia.

O problema começa quando dizemos que a dinâmica transformacional inerente à ontologia ameríndia possui um modus operandi determinado que nós, antropólogos, poderíamos abstrair mediante procedimento de “coloração contrastiva” (p.157). Procedendo assim, o antropólogo transforma a transformação outra em algo completamente desencarnado – fruto da construção artificial, laboratorial, em suma, contrastiva da alteridade radical. Na verdade essas dinâmicas transformacionais outras nas quais o discurso antropológico supostamente se imiscui não são outra coisa senão o resultado de um procedimento enunciativo disciplinar e disciplinador que submete a experiência ao conceito (“A revolução, ou a essa altura será melhor dizer, a insurreição e a alteração começam pelo conceito”, Viveiros, p. 155).

O “perspectivismo imanente” depreendido por Viveiros da análise formal dos mitos só pode existir enquanto subproduto da alteridade radical laboratorialmente forjada por uma antropologia que se obstina em negar a experiência e a voz própria dos homens e mulheres que são os verdadeiros sujeitos da história. Mesmo abundantes, os eufemismos de Viveiros são insuficientes para dissimular o recurso ao “nicho do selvagem” que abastece sua máquina textual. No final das contas, Viveiros quer comparar “transformações” – outro nome para cultura – e depois mobilizá-las na construção de enunciados políticos que suspendem a política, que nos conclamam ao estarrecimento resmungão e, no pior dos casos, nos transformam em moralistas que repetem insistentemente que as coisas poderiam – ou deveriam – ser diferentes do que são sem saber como, objetivamente, engajar-se nas dinâmicas transformacionais imanentes à realidade.

A ideia de transformação da antropologia enunciada por Viveiros de Castro é caudatária da ego-política do conhecimento. Nesta perspectiva profundamente desencarnada, a antropologia aparece como uma “estrutura conceitual” – e não como a expressão localizada de certo processo de institucionalização – que pode sofrer alinhamentos com a “pragmática reflexiva” indígena. Quem promove esses alinhamentos? Viveiros não explicita, mas só podemos concluir que são os próprios antropólogos que o fazem. Se now is the turn of the native, quem distribui os “turnos” na fila da legitimidade epistêmica (ou ontológica) é o próprio antropólogo.

No sentido oposto ao da ego-política do conhecimento, o Grupo de Estudos em Antropologia Crítica (GEAC) retomou a noção descolonial de corpo-política do conhecimento. Esta noção nos leva a definir a transformação da antropologia como um processo localizado de disputa encarnada – corporalizada – pela construção de outros lugares de enunciação e de novas formas de produzir efeitos de verdade. Pensar com os outros, como propõe Viveiros, significa, para nós algo muito mais radical. Significa pensar na presença concreta do outro, engajados corpo-politicamente com ele. O resultado disso não precisa ser, necessariamente, “antropologia”, “etnografia” ou qualquer outra forma de subsunção da radicalidade da ação histórica e da especificidade dos sujeitos à mesmidade do texto acadêmico. Não vemos necessidade de construir, laboratorialmente e por contraste, o pensamento do outro – ou, sendo fiéis a Viveiros, as formas outras de empreender a transformação – para, só depois, proceder à construção do comum.

III.

Viveiros quer transformar as estruturas conceituais da antropologia e colocá-las a serviço da descolonização do pensamento. Nós perguntamos: é possível fazê-lo sem abrir mão das formas específicas de exercício do poder que a antropologia avaliza enquanto disciplina? Viveiros reforça um senso comum de longa data cujo efeito é a neutralização de quaisquer práticas intelectuais dissidentes. Ele agita a bandeira da descolonização do pensamento sem prestar atenção às bases institucionais conservadoras sobre as quais repousa comodamente. Evidência disso é a facilidade com que o antropólogo descolonizador ironizou a interpelação que lhe fizemos anos atrás (acessar texto aqui) recorrendo àquela pergunta tão frequente nos espaços mais policialescos da disciplina: onde está a etnografia dessa gente?

Quando Viveiros procura deslegitimar nossa interpelação recorrendo à pergunta irônica sobre as “etnografias” que fomos ou não capazes de produzir, ele se inscreve completamente na história da qual pretende emancipar a disciplina. Uma história que erigiu a etnografia (o texto) em única expressão legítima do enunciado antropológico. Isso para não falar da leitura completamente narcísica feita por ele de nossa intervenção. Para Viveiros, tudo o que dissemos era a reprodução do discurso de nossos “orientadores” ou, até mesmo, uma tentativa de atacá-lo para salvar o Partido dos Trabalhadores (!). Enquanto líamos essas assertivas, nos lembrávamos da forma como alguns docentes reagiram à greve dos estudantes de mestrado em antropologia da Universidade Federal do Rio Grande do Sul em 2011. Incrédulos diante das críticas que os estudantes faziam ao produtivismo acadêmico desenfreado, à escassez de bolsas e à nula participação discente na definição das políticas do programa de pós-graduação, determinados professores só puderam explicar o acontecimento recorrendo à lógica da cooptação: era o Partido Comunista (!) que estava por trás daquela imensa insensatez. A voz própria enunciada em primeira pessoa continua a ser desacreditada fortemente nos domínios da disciplina: não há sujeito histórico verdadeiramente autêntico, sempre “há algo” por trás que o explica e conduz. Reações desta ordem, que se recusam a reconhecer a autenticidade da fala do outro, são sintomas de um narcisismo antropológico-disciplinar que priva a si mesmo da possibilidade de mudar a própria perspectiva sobre as coisas: “ao adentrarmos o espaço da exterioridade e da verdade, só conseguimos ver reflexos e simulacros obsedantes de nós mesmos” (p.23 [acessar texto aqui]). Tudo aquilo que o establishment disciplinar contempla não pode ser outra coisa senão o reflexo da sua própria lógica de funcionamento.

Ao mesmo tempo que Viveiros atualiza em sua performance acadêmica as hierarquias silenciadoras e os sistemas de visibilidade que sustentam a disciplina que o legitima, ele também nos entrega, paradoxalmente, uma retórica descolonizadora. Sua crítica aguda e implacável à fé cega nas ideias-força da modernidade capitalocêntrica possui, sem dúvidas, uma potência suscetível de ser atualizada por quem deseja incidir nas relações de força concretas. Não só no Brasil, mas também em outros países da América do Sul, os enunciados produzidos por Viveiros de Castro são constelados em agenciamentos coletivos que ensaiam uma ruptura pragmática com o consenso das commodities e inauguram, assim, renovados espaços de imaginação política. Nestes casos, Viveiros é vivificado pela ação coletiva; sua crítica se associa com os imperativos das lutas atuais e é potencializada por uma poética materialista capaz de desenterrar outro mundo possível das entranhas deste mundo subsumido pelo capital. Peter Perbart tem razão: “ainda os que costumam planejar uma abstração radical (…) podem ser reconectados à terra ao entrar em contato com uma situação real e deixar para trás a imagem da qual muitas vezes são prisioneiros e na qual o poder insiste em enclausurá-los” (acessar texto).

Viveiros é vivificado pela política fora da academia. Dentro dela, no entanto, é disciplinado e sabe disciplinar. Aprisiona entre aspas todas as palavras que correm o risco de serem abastardadas pelo uso canalha (“grupo” de “antropologia” “crítica” – dizia no twitter). Insinua que por detrás da interpelação crítica a ele destinada se oculta o repreensível desejo de “aparecer”. É que ao atrair para si uma atenção da qual a priori não são merecedores, os responsáveis pela mais mínima inversão dos regimes convencionais de visibilidade acadêmica só podem ser encarados como usurpadores.

Nós questionamos estas tendências e procuramos problematizá-las através do espaço autônomo de diálogo e reflexão que é o GEAC. Enquanto a “filosopausa” não chega – e com ela a possibilidade de publicar textos aforísticos em revistas indexadas – decidimos construir, de direito próprio, um lugar amigável para desenvolver engajamentos e debates cuja emergência costuma ser obturada pelos estabelecimentos antropológicos mais conservadores.

Apesar da deriva filosófica, Viveiros de Castro continua aferrado à disciplina antropológica e ao senso comum que a sustenta. Resta-nos a esperança de que as ruas e a história o absolvam.  E de que Viveiros indiscipline-se.

Uma década de avanços em biotecnologia (Folha de S.Paulo)

11 de fevereiro de 2016

Lei de Biossegurança completa 10 anos dialogando com as mais recentes descobertas da ciência

Walter Colli – Instituto de Química, Universidade de São Paulo

Ao longo de 2015, uma silenciosa revolução biotecnológica aconteceu no Brasil. Neste ano a Comissão Técnica Nacional de Biossegurança (CTNBio) analisou e aprovou um número recorde de tecnologias aplicáveis à agricultura, medicina e produção de energia. O trabalho criterioso dos membros da CTNBio avaliou como seguros para a saúde humana e animal e para o ambiente 19 novos transgênicos, dentre os quais 13 plantas, três vacinas e três microrganismos ou derivados.

A CTNBio, priorizando o rigor nas análises de biossegurança e atenta às necessidades de produzir alimentos de maneira mais sustentável aprovou, no ano passado, variedades de soja, milho e algodão tolerantes a herbicidas com diferentes métodos de ação. Isso permitirá que as sementes desenvolvam todo seu potencial e que os produtores brasileiros tenham mais uma opção para a rotação de tecnologias no manejo de plantas daninhas. Sem essa ferramenta tecnológica, os agricultores ficariam reféns das limitações impostas pelas plantas invasoras. As tecnologias de resistência a insetos proporcionam benefícios semelhantes.

Na área da saúde, a revolução diz respeito aos métodos de combate a doenças que são endêmicas das regiões tropicais. Mais uma vez, mostrando-se parceira da sociedade, a CTNBio avaliou a biossegurança de duas vacinas recombinantes contra a Dengue em regime de urgência e deu parecer favorável a elas. Soma-se a estes esforços a aprovação do Aedes aegypti transgênico. O mosquito geneticamente modificado aprovado em 2014 tem se mostrado um aliado no combate ao inseto que, além de ser vetor da dengue, também está associado a casos de transmissão dos vírus Zika, Chikungunya e da febre amarela.

Nos últimos 10 anos, até o momento, o advento da nova CTNBio pela Lei 11.105 de 2005 – a Lei de Biossegurança – proporcionou a aprovação comercial de 82 Organismos Geneticamente Modificados (OGM): 52 eventos em plantas; 20 vacinas veterinárias; 7 microrganismos; 1 mosquito Aedes aegypti; e 2 vacinas para uso humano contra a Dengue. Essas liberações comerciais são a maior prova de que o Brasil lança mão da inovação para encontrar soluções para os desafios da contemporaneidade.

Entretanto, é necessário enfatizar que assuntos não relacionados com Ciência também se colocaram, como em anos anteriores, no caminho do desenvolvimento da biotecnologia em 2015. Manifestantes anti-ciência invadiram laboratórios e destruíram sete anos de pesquisas com plantas transgênicas de eucalipto e grupos anti-OGM chegaram a interromper reuniões da CTNBio, pondo abaixo portas com ações truculentas. Diversas inverdades foram publicadas na tentativa de colocar em dúvida a segurança e as contribuições que a transgenia vem dando para a sociedade. A ação desses grupos preocupa, pois, se sua ideologia for vitoriosa, tanto o progresso científico quanto o PIB brasileiros ficarão irreversivelmente prejudicados.

Hoje, a nossa Lei de Biossegurança é tida internacionalmente como um modelo de equilíbrio entre o rigor nas análises técnicas e a previsibilidade institucional necessária para haver o investimento. O reconhecimento global, o diálogo com a sociedade e a legitimidade dos critérios técnicos mostram que esses 10 anos são apenas o início de uma longa história de desenvolvimento e inovação no Brasil.

Argentine and Brazilian doctors suspect mosquito insecticide as cause of microcephaly (The Ecologist)

Claire Robinson / GMWatch

10th February 2016

With the proposed connection between the Zika virus and Brazil’s outbreak of microcephaly in new born babies looking increasingly tenuous, Latin American doctors are proposing another possible cause: Pyriproxyfen, a pesticide used in Brazil since 2014 to arrest the development of mosquito larvae in drinking water tanks. Might the ‘cure’ in fact be the poison?

Malformations detected in thousands of children from pregnant women living in areas where the Brazilian state added Pyriproxyfen to drinking water are not a coincidence, even though the Ministry of Health places direct blame on the Zika virus.

The World Health Organization view that the microcephaly outbreak in Brazil’s impoverished northeast is caused by the Zika virus has, so far, received few challenges.

Brazil’s Health Minister, Marcelo Castro, has gone so far as to say that he has “100% certainty”that there is a link between Zika and microcephaly, a birth defect in which babies are born with small heads.

The view is widely supported in the medical community worldwide, including by the US’s influential Center for Disease Control. But there is no hard evidence of the link, rather a mixture of epidemiological indications and circumstantial evidence.

One of the key scientific papers, by A S Oliveira Melo et al in the journal Ultrasound in Obstetrics & Gynecology, found Zika virus in the amniotic fluids and other tissues of the affected babies and their mothers. But only two women were examined, far too small a number to establish a statistically significant link.

The New York Times also reported on 3rd February on the outcome of analyses by Brazil’s Health Ministry: “Of the cases examined so far, 404 have been confirmed as having microcephaly. Only 17 of them tested positive for the Zika virus. But the government and many researchers say that number may be largely irrelevant, because their tests would find the presence of the virus in only a tiny percentage of cases.”

And last weekend, the most powerful indicator yet that the microcephaly may have another cause altogether was announced by Colombia’s president, Juan Manuel Santos, as reported by the Washington Post. Colombian public health officials, stated Santos, have so far diagnosed 3,177 pregnant women with the Zika virus- but in no case had microcephaly been observed in the foetus.

Argentine doctors: it’s the insecticide

Now a new report has been published by the Argentine doctors’ organisation, Physicians in the Crop-Sprayed Towns (PCST), [1] which not only challenges the theory that the Zika virus epidemic in Brazil is the cause of the increase in microcephaly among newborns, but proposes an alternative explanation.

According to PCST, the Ministry failed to recognise that in the area where most sick people live, a chemical larvicide that produces malformations in mosquitoes was introduced into the drinking water supply in 2014.

This pesticide, Pyriproxyfen, is used in a state-controlled programme aimed at eradicating disease-carrying mosquitos. The Physicians added that the Pyriproxyfen is manufactured by Sumitomo Chemical, a Japanese ‘strategic partner‘ of Monsanto. – a company they have learned to distrust due to the vast volume of the company’s pesticides sprayed onto Argentina’s cropland.

Pyriproxyfen is a growth inhibitor of mosquito larvae, which alters the development process from larva to pupa to adult, thus generating malformations in developing mosquitoes and killing or disabling them. It acts as an insect juvenile hormone or juvenoid, and has the effect of inhibiting the development of adult insect characteristics (for example, wings and mature external genitalia) and reproductive development.

The chemical has a relatively low risk profile as shown by its WHO listing, with low acute toxicity. Tests carried out in a variety of animals by Sumitomo found that it was not a teratogen (did not cause birth defects) in the mammals it was tested on. However this cannot be taken as a completely reliable indicator of its effects in humans – especially in the face of opposing evidence.

The PCST commented: “Malformations detected in thousands of children from pregnant women living in areas where the Brazilian state added Pyriproxyfen to drinking water are not a coincidence, even though the Ministry of Health places a direct blame on the Zika virus for this damage.”

They also noted that Zika has traditionally been held to be a relatively benign disease that has never before been associated with birth defects, even in areas where it infects 75% of the population.

Brazilian doctors also suspect pyriproxyfen

Pyriproxyfen is a relatively new introduction to the Brazilian environment; the microcephaly increase is a relatively new phenomenon. So the larvicide seems a plausible causative factor in microcephaly – far more so than GM mosquitos, which some have blamed for the Zika epidemic and thus for the birth defects.

The PCST report, which also addresses the Dengue fever epidemic in Brazil, concurs with the findings of a separate report on the Zika outbreak by the Brazilian doctors’ and public health researchers’ organisation, Abrasco. [2]

Abrasco also names Pyriproxyfen as a possible cause of the microcephaly. It condemns the strategy of chemical control of Zika-carrying mosquitoes, which it says is contaminating the environment as well as people and is not decreasing the numbers of mosquitoes.

Instead Abrasco suggests that this strategy is in fact driven by the commercial interests of the chemical industry, which it says is deeply integrated into the Latin American ministries of health, as well as the World Health Organization and the Pan American Health Organisation.

Abrasco names the British GM insect company Oxitec as part of the corporate lobby that is distorting the facts about Zika to suit its own profit-making agenda. Oxitec sells GM mosquitoes engineered for sterility and markets them as a disease-combatting product – a strategy condemned by the Argentine Physicians as “a total failure, except for the company supplying mosquitoes.”

Both the Brazilian and Argentine doctors’ and researchers’ associations agree that poverty is a key neglected factor in the Zika epidemic. Abrasco condemned the Brazilian government for its “deliberate concealment” of economic and social causes: “In Argentina and across America the poorest populations with the least access to sanitation and safe water suffer most from the outbreak.” PCST agrees, stating, “The basis of the progress of the disease lies in inequality and poverty.”

Abrasco adds that the disease is closely linked to environmental degradation: floods caused by logging and the massive use of herbicides on (GM) herbicide-tolerant soy crops – in short, “the impacts of extractive industries.”

The notion that environmental degradation may a factor in the spread of Zika finds backing in the view of Dino Martins, PhD, a Kenyan entomologist. Martins said that “the explosion of mosquitoes in urban areas, which is driving the Zika crisis” is caused by “a lack of natural diversity that would otherwise keep mosquito populations under control, and the proliferation of waste and lack of disposal in some areas which provide artificial habitat for breeding mosquitoes.”

Community-based actions

The Argentine Physicians believe that the best defence against Zika is “community-based actions”. An example of such actions is featured in a BBC News report on the Dengue virus in El Salvador.

A favourite breeding place for disease-carrying mosquitoes is storage containers of standing water. El Salvadorians have started keeping fish in the water containers, and the fish eat the mosquito larvae. Dengue has vanished along with the mosquitoes that transmit the disease. And so far, the locals don’t have any Zika cases either.

Simple yet effective programmes like this are in danger of being neglected in Brazil in favour of the corporate-backed programmes of pesticide spraying and releasing GM mosquitoes. The latter is completely unproven and the former may be causing far more serious harm than the mosquitoes that are being targeted.

 


 

Claire Robinson is an editor at GMWatch.

This article was originally published by GMWatch. This version includes additional reporting by The Ecologist.

Notes

1. ‘Report from Physicians in the Crop-Sprayed Towns regarding Dengue-Zika, microcephaly, and mass-spraying with chemical poisons‘. 2016. Physicians in the Crop-Sprayed Towns.

2. ‘Nota técnica e carta aberta à população: Microcefalia e doenças vetoriais relacionadas ao Aedes aegypti: os perigos das abordagens com larvicidas e nebulização química – fumacê‘. January 2016. GT Salud y Ambiente. Asociación Brasileña de Salud Colectiva. ABRASCO.

 

Nota técnica sobre microcefalia e doenças vetoriais relacionadas ao Aedes aegypti: os perigos das abordagens com larvicidas e nebulizações químicas – fumacê (Abrasco)

Grupos Temáticos da Abrasco produzem Nota Técnica com reflexões, questionamentos e proposições de orientação

Nós, sanitaristas e pesquisadores da Saúde Coletiva que atuamos no GTs Saúde e Ambiente; Saúde do Trabalhador; Vigilância Sanitária; Promoção da Saúde e Desenvolvimento Sustentável; Educação Popular e Saúde e Alimentação e Nutrição em Saúde Coletiva da Associação Brasileira de Saúde Coletiva (Abrasco), vimos a público porque temos o dever de elaborar reflexões, questionamentos e fazer proposições que possam orientar as políticas públicas na intervenção preventiva frente às epidemias de microcefalia e doenças vetoriais relacionadas ao Aedes aegypti. Dentre os eventos sanitários clinicamente visíveis, as problemáticas relacionadas às doenças vetoriais surgem como  um dos mais importantes eventos sanitários pós Segunda Guerra Mundial.

Como se sabe, foi decisão do Ministério da Saúde (MS) imputar a associação da epidemia de microcefalia à infecção materno-fetal pelo vírus da Zika, supostamente introduzido no Brasil em 2014, no Nordeste brasileiro. Diante da inusitada incidência foi determinado o estado de Emergência em Saúde Pública de Importância Nacional, desencadeando a intensificação do controle vetorial do Aedes aegypti, dentro da mesma abordagem utilizada para Dengue, que há cerca 40 anos é realizada sem efetividade para os objetivos pretendidos.

Contexto do surgimento da epidemia

O quadro sanitário no qual emerge a epidemia de microcefalia deve ser analisado considerando-se os graves problemas que estão presentes na realidade socioambiental em que ocorreram os casos e no modelo operacional de controle vetorial. A distribuição espacial por local de moradia das mães dos recém-nascidos com microcefalia (ou suspeitos) é maior nas áreas mais pobres, com urbanização precária e com saneamento ambiental inadequado, com provimento de água de forma intermitente, fato que leva essas populações ao armazenamento domiciliar inseguro de água, condição muito favorável para a reprodução do Aedes aegypti, constituindo-se em “criadouros” que não deveriam existir, e que são passíveis de eliminação mecânica.

Alguns fatos que ainda precisam ser questionados e investigados podem justificar a introdução e a disseminação do vírus Zika. É necessário avaliar quais contextos e contingências existiram e aconteceram em 2014 nos locais de aparecimento dos casos de microcefalia. Podemos aventar alguns por saltarem aos olhos, como:

1) Na região Nordeste, em especial na periferia das suas Regiões Metropolitanas, como a de Recife, pode ter havido aumento da degradação ambiental, por existirem nelas todas as condições para a manutenção da alta densidade do Aedes aegypti, pelos baixos indicadores de saneamento ambiental, relacionados ao abastecimento de água, ao esgotamento sanitário, à imensa presença de resíduos sólidos junto aos domicílios e às deficiências de drenagem de águas pluviais. A propósito desta questão, a Revista RADIS Comunicação e Saúde da Fiocruz (n.154, julho 2015) traz uma esclarecedora matéria sobre saneamento ambiental mostrando sua defasagem e os graves problemas ainda não solucionados, o que se agrava pelos indícios de que haverá um retardo de anos no Plano Nacional de Saneamento Básico (Plansab) com o ajuste fiscal.[1]

2) A utilização continuada de larvicidas químicos na água de beber dessas famílias há mais de 40 anos sem, contudo, implicar na redução do número de casos de doenças provocadas por arbovírus. Em 2014 foi introduzido na água de beber das populações nos domicílios e nas vias públicas um novo larvicida o Pyriproxyfen. Conforme orientação técnica do MS[2] esse larvicida é um análogo do hormônio juvenil ou juvenóide, tendo como mecanismo de ação a inibição do desenvolvimento das características adultas do inseto (por exemplo, asas, maturação dos órgãos reprodutivos e genitália externa), mantendo-o com aspecto “imaturo” (ninfa ou larva), quer dizer age por desregulação endócrina e é teratogênico e inibe a formação do inseto adulto.

3) A intensificação de processos migratórios pela atração de grandes empreendimentos, cujos trabalhadores passam a viver em condições sanitárias precárias nas periferias dos polos industriais (como o de Suape-PE, com trabalhadores vindos de outras regiões e estados do país e de Pecém-CE, com a presença de milhares de coreanos);

4) A Copa do Mundo de 2014, evento de massa de grande porte, teve uma subsede em Recife (Arena Pernambuco). Instalada no município de São Lourenço da Mata (IDH de 0,614), está em uma região com precárias condições sanitárias. Foi observada a maior concentração dos casos de microcefalia inicialmente notificados (600 casos suspeitos) nessas áreas;

5) Fragilidade da vigilância epidemiológica dos municípios e dos estados no diagnóstico diferencial, na investigação de arboviroses e na diferenciação entomológica;

6) As dificuldades na condução da vigilância da Zika e Chinkungunya, ao tratá-las como “dengue branda”.  Frise-se que a capacidade vetorial do Aedes aegypti para transmitir o vírus da Zyka e Chikungunya em nosso meio ainda não está devidamente estudada nem pelos entomologistas em nossos contextos socioambientais. Daí caber indagações: o que fez os casos de dengue se tornar mais graves, se antes era considerada doença benigna desde 1779 até 1950, sem provocar sequela e sem alterações hematológicas, conforme dados da OMS? Como está o sistema imunológico da população diante do modelo químico de controle vetorial e adotadas pelo MS em curso no País há cerca de 30 anos?

As estratégias adotadas pelo MS

Apesar das razões e incertezas que estão na determinação da ocorrência da epidemia de microcefalia, o caminho para o que se chama de “enfrentamento” foi o de intensificar o “combate” ao mosquito pela repetição do que vem sendo adotado há mais de 40 anos sem sucesso. Chamamos a atenção da sociedade para esta questão. Por quais razões, apesar de todos os indicadores de ineficácia, o MS continua a utilizar a mesma abordagem para o controle do mosquito transmissor do vírus da dengue, doença cuja transmissão depende também de outros elementos? Mesmo desencadeando diversas capacitações para os profissionais de saúde e trabalhando em salas de situação para aprimorar o diagnostico e a notificação de casos das novas doenças virais; permanece sem integração as ações das Vigilâncias Epidemiológica, Sanitária e a Promoção da Saúde. O problema que queremos destacar nesta Nota Técnica de alerta está na essência do modelo de controle vetorial, haja vista a intensificação do uso de larvicidas e adulticidas para o Aedes aegypti, sendo que segundo as orientações adotadas pelo MS desde 2014, retrocede-se à orientação de utilização da técnica Ultra Baixo Volume (UBV)[3] com Malathion a 30% diluído em água, abrangendo  todo território nacional.

É preciso também problematizar o uso de produtos químicos numa escala que desconsidera as vulnerabilidades biológicas e socioambientais de pessoas e comunidades. O consumo de tais substâncias pela Saúde Pública só interessa aos seus produtores e comerciantes desses venenos. São insumos produzidos por um cartel de negócios muito lucrativo, que atua em todo o mundo e que, mesmo com evidências dos riscos provocados pelos organofosforados e piretroides, dos quais se conhecem tantos efeitos deletérios, têm tido o apoio de agências internacionais de Saúde Pública, como o Fundo Rotatório da Organização Pan-Americana de Saúde (OPAS) e da Organização Mundial da Saúde (OMS). Uma simples consulta às fichas de segurança química de tais produtos entregues pelas empresas aos órgãos de Saúde Pública mostra que esses produtos, a exemplo do Malathion, são neurotóxicos para o sistema nervoso central e periférico, além de provocarem náusea, vômito, diarreia, dificuldade respiratória e sintomas de fraqueza muscular, inclusive nas concentrações utilizadas no controle vetorial. Quanto à toxicidade ambiental é recomendado evitar seu uso no meio ambiente, o que não tem sido observado, pois seu lançamento é feito da forma como aqui denunciamos. Tais agências se constituem em instâncias de decisão para a compra e distribuição de venenos para todos os países vinculados à Organização das Nações Unidas (ONU). Os fornecedores são os mesmos cartéis de empresas produtoras de agrotóxicos que operam na agricultura, tornando-a também tóxica e químico-dependente. Esse modelo, pós-II Guerra Mundial, destacamos, impôs-se também para o controle das doenças vetoriais em Saúde Pública.

As tecnologias de controle químico dos vetores foram introduzidas amplamente no Brasil a partir de 1968, não se podendo desconsiderar que sua origem deve-se às armas químicas de destruição em massa, amplamente utilizadas pelo exército norte-americano, naquela época, na guerra do Vietnã. A adoção da técnica de tratamento por UBV foi uma prática introduzida nesse mesmo período e, não por acaso, um dos primeiros documentos de sua normatização foi elaborado pelo Exército Americano[4].

Essa mesma lógica já está adotada para oferecer a solução mediante a transgenia e outras biotecnologias imprecisas, duvidosas e perigosas para os ecossistemas, focando a ação apenas no mosquito, sem levar em conta os efeitos em organismos não-alvo. Atenção deve ser dada a empresa inglesa OXITEC nas pesquisas e comercialização do mosquito transgênico, cuja fábrica foi implantada em Campinas-SP em 2013 e que, em 2014, obteve a autorização da CTNBio para comercialização desse Organismo Geneticamente Modificado (OGM), e sobre essa questão a Abrasco publicou Nota Técnica[5].

O foco no mosquito e as consequências para a saúde humana

O lado invisível dos danos ao ambiente e à saúde humana, decorrentes do uso de produtos químicos no controle vetorial, ainda não foi devidamente estudado ou revelado às populações vulneráveis, incluindo os trabalhadores de Saúde Pública. Seus efeitos nocivos são totalmente desconsiderados tanto no agravamento das viroses, quanto no surgimento de outras patologias tais como: alergias, imunotoxicidade, câncer, distúrbios hormonais, neurotoxicidade, dentre outras.

Frisamos o simplismo no trato da questão por parte do MS que reduz a causalidade da Dengue, da Zika e da Chicungunya, centrando as ações na tentativa de eliminar ou reduzir o vetor, o que deve ser substituído, insistimos, pela ação de medidas de cunho intersetoriais para intervir no contexto socioeconômico e ambiental. Visando eliminar o mosquito a ação orientada pelo MS acaba, também, envenenando seres humanos. Mas isto não é reconhecido: ao contrário, há uma ocultação desses perigos. As vozes oficiais repetem até tornar verdadeiros diversos absurdos como: “As doses de larvicidas são tão baixas e pouco tóxicas que podemos colocar na água de beber, sem perigo”[6].

Este despreparo também leva a defender que a epidemia é um problema de Saúde Pública que justifica o uso do “fumacê”, mesmo com produtos químicos sabidamente tóxicos, como o Malathion, um verdadeiro contrassenso sanitário. Este produto é um agrotóxico organofosforado considerado pela Agência Internacional de Pesquisa em Câncer (IARC) como potencialmente cancerígeno para os seres humanos[7].

Assim, na tentativa de eliminar o mosquito estão sendo atingidos os humanos mediante efeitos agudos (de morbimortalidade) e de morte lenta, gradual, invisível e que é ocultada. Além das doenças agudas, as crônicas causadas por tais produtos aparecem a médio e longo prazos, a maioria delas chamadas “idiopáticas”, isto é, de causa indefinida ou desconhecida, que não são diagnosticadas ou se quer investigadas.

Ocorre que em pleno século XXI, no caso das doenças transmitidas pelo Aedes Aegypti, houve mais um complicador em termos de Saúde Pública, pois dois novos vírus entraram em nosso país, para cujas doenças – Chikungunya e Zika – não havia experiência no manejo clínico e nem epidemiológico.

A dengue e o sistema de vigilância epidemiológica

O sistema de vigilância epidemiológica da maioria dos serviços de saúde não investigou adequadamente esta nova realidade. Agora, com a tragédia do surgimento dos casos de microcefalia, revela-se este despreparo técnico-gerencial. Historicamente essas questões de Saúde Pública estão imersas em “razões de Estado”, desconhecidas pela maioria da sociedade. Devemos perguntar: que razões são essas? Para tal basta examinar os documentos oficiais do MS sobre controle vetorial.

Neste sentido, é pedagógico examinarmos os documentos orientadores emanados do MS. É o caso, por exemplo, da NOTA TÉCNICA N.º 109/2010 CGPNCD/DEVEP/SVS/MS[8] de COMBATE à DENGUE, na qual estão bem ilustrados os equívocos que aqui sinalizamos, ou seja, a intensificação do uso da UBV motorizada e costal nos domicílios e nas vias públicas. Nela se reitera os vários absurdos cometidos no controle vetorial do Aedes aegypti e que o MS insiste em manter e ampliar.

O envenenamento da população pobre

No Brasil, a Dengue tornou-se uma doença endêmica com surtos epidêmicos e isto precisa ser assumido de uma vez por todas. Quais são as áreas específicas de maior circulação viral? Justamente aquelas onde habitam as populações mais pobres, que tem piores condições imunológicas e sem saneamento adequado, o que vai se agravar conforme noticias do jornal FOLHA de SÃO PAULO, edição de 11-01-2016. E por que não se divulgam essas vulnerabilidades para a própria população? Acima referida Nota Técnica faz menção à outra, de nº 118/2010, que formula um parâmetro composto, com o que se busca introduzir  indicadores ambientais[9].

Ocorre que o faz apenas para a “delimitação das áreas que necessitam de maior intensificação das ações do combate ao vetor”. Ou seja, a aplicação de veneno (inseticidas e larvicidas) acaba aumentando a nocividade sobre o sistema imune.

A NT 109/2010 informa ainda, que “as ações de controle larvário a serem implementadas estão voltadas, principalmente, para as atividades de redução de fontes criadoras do mosquito (caixas d’água, depósitos diversos, pneus, entre outros)”. Ao assim proceder, admite-se que caixa d´água seja criadouro de mosquito e, portanto, deve ser “tratada” com veneno. Ocorre que a água de beber deve ter sua potabilidade garantida. Por que as ações não incidem na limpeza e na proteção dos reservatórios destinados a armazenar o líquido mais precioso para a vida? Como é possível aceitar a perda da potabilidade da água destinada aos mais pobres? Sim aos mais pobres, justamente aqueles que têm a maior vulnerabilidade. Que equidade é essa na qual aqueles que deveriam ser os mais protegidos e são, paradoxalmente, os mais expostos às situações de nocividade química por quem deveria protegê-los? A alegação de que a população é passiva também decorre desse modelo vertical e autoritário. Prioriza-se a potência do veneno contra os insetos desconsiderando o perigo aos seres humanos e, assim, nada mais precisa ser feito.

Ainda na NT 109/2010 o MS advoga que o sucesso do controle de doenças transmitidas por vetores possa ser atribuído aos agrotóxicos, quando cita como referência para sua justificativa nesse documento a “National Academy of Sciences, National Research Council. Pesticides in the Diets of Infants and Children. National Academy Press, Washington”.  Ressaltamos que o MS é a autoridade máxima em saúde e deveria se pautar pelo princípio da precaução quando se coloca o tema relacionado às exposições humanas a produtos químicos perigosos.

Também nela se lê que em razão do crescente agravamento do processo de resistência de mosquitos aos inseticidas, uma das principais missões do Comitê de Especialistas em Praguicidas da OMS (WHOPES) é encontrar novos biocidas para os quais não haja insetos resistentes, não havendo qualquer abertura para outros métodos, não perigosos, de controle. É fato bem demonstrado que a resistência adquirida pelo mosquito está a demonstrar a insustentabilidade do modelo químico-dependente de controle vetorial, pois já é sabido há muitos anos que os venenos desenvolvem e/ou aumentam a frequência de insetos portadores de mecanismos de resistência aos inseticidas e larvicidas, como vem ocorrendo com o Aedes aegypti.

Ademais a NT 109/2010 admite que “todos os inseticidas que se utilizam em saúde pública – por razões de mercado – são produtos originalmente desenvolvidos para a agricultura, não havendo nenhum que tenha sido desenvolvido exclusivamente para uso em saúde”. E cita como parâmetro de sustentação do sucesso da medida, as pesquisas realizadas em Cingapura para avaliar possível impacto da utilização das diversas medidas utilizadas no enfrentamento de uma epidemia de dengue naquele país. Por que não analisar nossas próprias experiências, afinal temos um tempo de controle vetorial de mais de 40 anos. Será que não são edificantes?

Mais venenos, mais resistência, mais venenos

É utilizado o exemplo do inseticida organofosforado Temephós (conhecido comercialmente como ABATE®), a 1%, introduzido no Brasil em 1968, como larvicida em água potável especialmente no Norte e Nordeste brasileiro, cujos impactos na saúde das populações não foram estudados. Sabemos que apesar da constatação da resistência do mosquito o MS continuou a utilizá-lo até o esgotamento de seu estoque, a despeito de ter sido demonstrado a resistência nos insetos alvo e a farta informação toxicológica dos potenciais riscos para a saúde humana.

A continuidade da adição de outros larvicidas substitutos na água de beber das pessoas se dá até hoje sem qualquer preocupação sobre sua concentração final, pois por orientação das normas do MS é indicada a diluição dos larvicidas apenas considerando o volume físico do recipiente e não pela  quantidade interna de água no recipiente. Em 1998, um alerta formal sobre este erro de diluição foi feito por químicos, médicos e engenheiros sanitaristas reconhecidos, mas nada mudou! Teimosamente, até hoje os documentos oficiais do MS recomendam a adição do larvicida nas caixas d’água considerando apenas o volume físico e não a quantidade de água que de fato existe em seu interior.

Um fato agravante é que em Pernambuco e outras regiões do Nordeste há racionamento frequente de água. Diante disso, cabe indagar: há quanto tempo o povo dessas regiões bebe água envenenada? De forma não cuidadosa e com falta de precaução, a introdução dos larvicidas classificados como reguladores de crescimento de insetos (IGR) dá-se mediante Notas Técnicas ainda mais abusivas no que se refere a “despotabilização” da água de beber.

Entendemos que aqui está a chave mestra para discutir porque o MS admite e defende esse modelo. Por trás disso estão a OMS e OPAS com o peso institucional de seus comitês de “pesticidas” que não dialogam com os comitês: ambiental, de saneamento e de promoção da saúde. Naqueles comitês internacionais, os que fazem a prescrição do uso e a regulação da compra dos insumos de controle vetorial para o mundo são imperiais. São tais organismos que convencem e dão o aval aos processos licitatórios dos governos nacionais.

Os larvicidas reguladores de crescimento como o Diflubenzuron e Novaluron, introduzidos no lugar do Temephós, mostram-se problemáticos. Em Recife, foi realizado estudo de efeito sobre a saúde dos trabalhadores que os aplicam constatou-se a ocorrência de metahemoglobinemia; também se sabe que seus metabólitos têm diversos efeitos tóxicos, e que não são considerados. Tais resultados foram amplamente divulgados no II Seminário da Rede Dengue da Fiocruz em novembro de 2010, na cidade do Rio de Janeiro; no Primeiro Simpósio de Saúde e Ambiente em 2010, realizado na cidade de Belém e no 10º. Congresso Brasileiro de Saúde Coletiva em 2012, na cidade de Porto Alegre.

Com sua política centralizadora, os setores do MS responsáveis pelo controle vetorial contraindicam que os municípios adotem outros meios independentes do uso químico. Mesmo diante da constatação da ineficácia do modelo utilizado. Os municípios gastam inutilmente seus parcos recursos em produtos químicos perigosos e fazem os trabalhadores da saúde atuarem apenas nesse ponto, expondo-os ainda aos venenos.

Insistindo nessa estratégia, houve, em 2014, a introdução do larvicida Pyriproxyfen, e mesmo sabendo-se de sua toxicidade como teratogênico e de desregulação endócrina para o mosquito, foi considerado de baixa toxicidade. E, mais uma vez, o MS recomenda o seu uso em água potável, para ser adicionado nos reservatórios e caixas de água, independentemente da quantidade de água no seu interior, tornando a concentração mais elevada quando em situações de racionamento de água[10][11].

Diante de produtos que têm efeito teratogênico em artrópodes, o que pelas normatizações para registro de agrotóxicos seria vedado seu uso na agricultura, por razões de segurança alimentar, perguntamos como aceitar o uso em água potável destinado ao consumo humano? O que dizer desse uso em um contexto epidêmico de má formação fetal? No estado de Emergência em Saúde Pública de Importância Nacional, recentemente decretado pelo MS, conforme noticia a grande mídia, está sendo preconizado o uso de larvicida diretamente nos carros-pipas que distribuem água nas regiões do Agreste e Sertão do Nordeste. Alertamos que esta é a mais recente medida sanitária absurda e imprudente imposta pelos gestores do modelo químico de controle vetorial.

Embora a NT 109/2010 reconheça que “A inserção de ações intersetoriais, tais como o abastecimento regular de água e coleta de resíduos sólidos, constitui-se em uma atividade fundamental para impactar na redução da densidade do vetor Aedes aegypti”, pouco se propõe nesse sentido. Insistimos na pergunta: por que é mantido o controle vetorial centrado em um programa que há mais de 40 anos vem mostrando ineficácia e ineficiência para fazê-lo? Impõe-se, pois, uma estratégia centrada na identificação e eliminação dos criadouros e no Saneamento Ambiental. O que de fato está sendo feito para o abastecimento regular de água nas periferias das cidades? Como as pessoas podem proteger as águas reservadas para consumo? Por que apesar de muitas cidades terem coleta de lixo regular ainda se observa uma quantidade enorme de resíduos sólidos diariamente dispostos no ambiente? O que está sendo feito para cuidar desta questão? E a drenagem urbana de águas pluviais? E o esgotamento sanitário?

Merece ainda destaque a NT 109/2010, quando afirma que “o maior problema reside nos “adulticidas espacial e residual”, lamentando que os venenos disponíveis estejam restritos apenas aos “grupos dos organofosforados e piretróides. Nos organofosforados a oferta restringe-se ao Malathion (espacial) e o Fenitrothion (residual)”. Esclarecemos que a menção ao termo “espacial” se refere a uso em nebulizadores (Ultra Baixo Volume – UBV, conhecido como “fumacê”, ou por equipamento costal). Dos venenos acima referidos, sabe-se, como já dito, que o Malathion é um potente cancerígeno para animais e, recentemente, foi reconhecido como potencialmente cancerígeno para humanos pela IARC da OMS[12]. Vale o destaque, de que diversos produtos utilizados no controle vetorial do Aedes aegypti como o  Fenitrothion, Malathion e Temephós vem sendo estudados desde 1998, no Departamento de Química Fundamental da UFPE e mostram ter efeitos potencialmente carcinogênicos para humanos. As recomendações pelo MS do uso de Malathion encontram-se no documento Recomendações sobre o uso de Malathion Emulsão Aquosa-EA 44% para o controle de Aedes aegypti em aplicações espaciais a Ultra Baixo Volume UBV, de 2014[13]. Com a adoção dessas nebulizações o envenenamento é potencialmente, ainda mais amplo e perigoso.

Sem trocadilhos, chega-se assim, ao fundo do poço, em termos de falta de compreensão dos processos de determinação socioambiental e de cuidados na prevenção das doenças relacionadas aos vetores, aos quais se somam os interesses nacionais e internacionais estranhos às questões de saúde públicas e relacionadas às agendas de consumo dos agrotóxicos.

Onde fica o saneamento ambiental?

Uma pergunta que não quer calar precisa ser aqui posta com total indignação: por que não foram priorizadas até agora as ações de saneamento ambiental, estratégia que parece ficar ainda mais distante?

A propósito, se visitarmos as periferias das grandes cidades e as chamadas zonas especiais socialmente vulneráveis, onde as carências são de toda ordem, ver-se-á um quadro sanitário tão grave que nenhuma quantidade de veneno poderá resolver o controle vetorial, ao que acresce o fato de que as pessoas terão sua saúde gravemente comprometida.

As políticas urbanas e de saneamento são, em geral, desarticuladas. As precárias condições de moradia, de urbanização e de saneamento ambiental, contexto característico da grande maioria dos casos de microcefalia, refletem um modelo de desenvolvimento e de políticas urbanas que atinge aos pobres, já vulnerabilizados historicamente pela abissal desigualdade social brasileira. Habitações sem condições para adequado armazenamento de água domiciliar, localizadas em áreas íngremes ou alagadas, com precária infraestrutura e urbanização e com serviços de saneamento precários. Um contexto que reflete a mazela social que destina melhor infraestrutura e melhores serviços para as classes média e alta. O exemplo da desigualdade no acesso à água potável no Brasil é emblemático dessa assimetria de acesso. O consumo per capita pode variar em uma cidade de 30 a 500 litros/hab/dia. Uma das expressões dessa desigualdade é no rodízio semanal do acesso ou na intermitência do abastecimento de água. A grande maioria de casos de microcefalia ocorreu em cidades com problemas sérios de rodízios ou intermitência, onde os mais pobres ficam mais dias sem água por semana e os mais ricos ou não tem rodízio ou intermitência ou os tem por poucos dias. A crise hídrica e a má gestão dos serviços de saneamento também tem imposto o rodízio ou intermitência a cidades inteiras, e mesmo o colapso no abastecimento, cenário de muitos casos de microcefalia no Nordeste.

Diante da inoperância dos métodos de controle do Aedes aegypti, a gravidade da situação se aprofunda. Em Pernambuco a Secretaria de Estado da Saúde (SES) notificou ao MS, em 28 de outubro de 2015, a existência de 29 casos de microcefalia naquele ano, até então mais do que o dobro do que vinha ocorrendo nos anos anteriores. Destaca-se que apenas 07 estados tinham a prática de notificação obrigatória de má-formação congênita. Em dezembro de 2015 constatava-se que 14 estados estavam com prevalência de microcefalia elevada. A proporção de novos casos em Pernambuco tornou-se assustadora. No dia 18 de novembro de 2015, o MS decreta o estado de Emergência em Saúde Pública de Importância Nacional, situação que apenas fora adotada em 1917, com a ocorrência de Gripe Espanhola. Conforme noticiado pelo Diário de Pernambuco, em 20/01/2016, o número de casos suspeitos de microcefalia subiu para 3.893. Os registros foram feitos em 764 municípios, distribuídos em 21 unidades da federação. Até essa data, foram notificadas 49 mortes provocadas por essa má-formação. Do total desses óbitos, 05 tiveram confirmadas a presença do vírus Zika. Embora sabemos que, em uma situação de exposição materna ao vírus, e este ultrapassando a barreira placentária, é esperado que o feto também se exponha. Neste campo ainda há muitas questões em processo de pesquisa. Segundo informações do MS, Pernambuco continua a ser o Estado com o maior número de casos suspeitos (1.306), o que representa 33% do total registrado em todo o país[14].

Deve-se alertar e assinalar que a entrada no Brasil do vírus Zika não foi acompanhada de um conhecimento da sua dispersão pela vigilância epidemiológica e entomológica. Uma série de medidas, todas centradas na prática do uso de venenos foi intensificada, a partir da aceitação de relação direta entre microcefalia e Zika vírus. Como aditivo temos a recomendação para gestantes de uso de repelente[15]. Com isso o DEET (N,N-dimetil-meta-toluamida) vem sendo comercializado sem restrição para mulheres grávidas, outra banalização de exposição química[16].

O quadro de crise epidemiológica das doenças transmitidas pelo Aedes aegypti é ainda mais grave e aqui é importante dizer que no Brasil, entre 2014 e 2015, ocorreram cerca de 1,5 milhão de casos, a metade no estado de São Paulo. Porque nesse estado, onde ocorrem periodicamente epidemias de Dengue, que anteriormente registrava pouquíssimos óbitos, e que, nesse período, houve inusitadamente mais de 400 mortes associadas a complicações de Dengue? Será que tal fato tem relação com a informação de que, em São Paulo, vem se intensificando o controle vetorial com uso de Malathion em nebulização química? Esse veneno é utilizado desde 2001, a 30% na formulação final, em processo de nebulização, pela Superintendência de Controle de Endemias (SUCEN), sendo que no segundo semestre de 2014, foi introduzida  pelo MS uma nova formulação de Malathion diluído em água[17], contendo emulsificantes e estabilizantes não declarados. A justificativa dessa substituição foi o seu menor custo. Será que pode haver alguma associação entre a exposição ao Malathion e essa mortalidade considerada tão aumentada por complicações da Dengue? Quem são esses que morreram? São idosos, portadores de doenças crônicas, crianças? É preciso saber mais. A população exposta ao Malathion foi investigada? A possibilidade de essas mortes estarem associadas à exposição ao Malathion foi aventada e pesquisada? Salientamos que devido ao uso massivo e contínuo de substância tão tóxica essa investigação precisa ser realizada.

Finalizando, reivindicamos das autoridades competentes a adoção das medidas a seguir:

1) Imediata revisão do modelo de controle vetorial. O foco deve ser a ELIMINAÇÃO DO CRIADOURO e não o mosquito como centro da ação; com a suspensão do uso de produtos químicos e adoção de métodos mecânicos de limpeza e de saneamento ambiental. Nos reservatórios de água de beber utilizar medidas de limpeza e proteção da qualidade da água e garantia de sua potabilidade;

2) Nas campanhas de Saúde Pública para controle de Aedes aegyptiimediata suspensão do uso de Malathion ou qualquer outro organofosforado, carbamato, piretróide ou organopersistente, seja em nebulização aérea ou em cortinados tratados com veneno (mosquiteiros impregnados). Substituir o uso desses produtos por barreiras mecânicas, limpeza, aspiração, telagem de janelas, portas entre outras medidas;

3) Nas medidas adotadas pelo MS para controle de Aedes aegypti em suas formas larva e adulto, imediata suspensão do  Pyriproxyfen (0,5 G) e de todos os inibidores de crescimento como o Diflubenzuron e o Novaluron, ou qualquer outro produto químico ou biológico em água potável. O conceito de potabilidade da água não pode ser perdido, ele é a chave para as medidas participativas de eliminação de vetores.

4) Que sejam realizados esforços intersetoriais para a acabar com a intermitência do abastecimento de água nas áreas de urbanização precária. Água é um direito humano. As populações mais vulneráveis devem, por equidade, serem as mais protegidas;

5) Que as ações de controle vetorial no ambiente seja uma atribuição dos órgãos de saneamento e de controle ambiental municipais, estaduais e nacional e não só do SUS, que deve atuar na vigilância entomológica, sanitária, ambiental, epidemiológica, virológica e da saúde do trabalhador, aferindo se as medidas de saneamento ambiental estão resultando em melhoria das condições de saúde;

6) Que as políticas urbanas e de saneamento ambiental promovam programas integrados para a resolução dos problemas de moradia, saneamento e urbanização;

7) Que a vigilância epidemiológica seja realizada por profissionais experientes em clínica, fisiopatologia e epidemiologia, em diversos níveis do SUS. Esta proposição se dá no fortalecimento da integração e atuação articuladas das áreas de vigilância da saúde com as áreas de produção de conhecimentos.

8) Que sejam realizadas pesquisas clínicas e informadas outras disfunções ou malformações relativas as viroses da Dengue, da Zika e da Chincungunya e que sejam estudados os efeitos da exposição a produtos químicos utilizados no controle vetorial do Aedes aegypti;

9) Que o amparo às famílias acometidas pelo surto de microcefalia se dê mediante uma política pública perene e não transitória. Que esse apoio seja integral, incluindo neste atenção a família pelo trauma psíquico decorrente desse desfecho gestacional.

10) Que seja realizada uma auditoria nos modelos de controle vetorial por uma comissão multidisciplinar de especialistas  independentes, incluindo avaliação do modos operados do Fundo Rotatório da OPAS/OMS a ser solicitado pelo governo brasileiro, quiçá em conjunto com outros países latino-americanos que sofrem as mesmas imposições,  à Organização da Nações Unidas;

12) Que seja ratificada a imediata elaboração pelo Ministério da Saúde de orientações técnicas para a Atenção à Saúde dos Trabalhadores da Saúde que NO PASSADO se expuseram aos agrotóxicos utilizados no controle do Aedes aegypti, a serem adotadas pelas Secretarias Estaduais e Municipais de Saúde, em acordo com a Política Nacional de Saúde do Trabalhador e com experiência exitosas;

13) Que seja criado, pelo MS, um Portal para acesso amplo da população a todos processos e fatos associados ao controle vetorial, às epidemias relacionadas à ação do Aedes aegypti e a epidemia de microcefalia. Nele deve também ser informado quando utilizados, o volume, os tipos de produtos químicos, o número de domicílios e imóveis nebulizados, por Unidade da Federação e por município, pois são do maior interesse dos profissionais de saúde e da sociedade.

 

Por fim, chamamos atenção da sociedade civil, diante da atual declaração de Estado de Emergência em Saúde Pública de Importância Nacional para epidemia de microcefalia e arboviroses, que: a) todas as medidas de controle vetorial sejam realizadas com mobilização social no sentido da proteção e respeito da cidadania pela Saúde Pública, priorizando-se as medidas de saneamento ambiental, com garantia da potabilidade da água de beber, como parte do respeito aos Direitos Humanos e orientados pelos princípios da Política Nacional de Educação Popular em Saúdeb) que o SUS deve rever as estratégias e conteúdos da comunicação social à população, tirando o foco na responsabilidade individual e das famílias, explicitando as responsabilidades dos diversos setores estatais, com ênfase na importância das medidas de saneamento, coleta de resíduos, cumprimentos das políticas de resíduos sólidos, garantia de abastecimento de água; e c) melhoria da qualidade da assistência às famílias e às crianças acometidas e da atenção pré-natal, pois se agrava a fragilidade observada que já era conhecida – a exemplo dos casos de sífilis congênita – e que se comprova com a ocorrência de casos de microcefalia identificados após o parto.

 

Grupos Temáticos da Abrasco: 

GT Saúde e Ambiente

GT Saúde do Trabalhador

GT Vigilância Sanitária

GT Promoção da Saúde e Desenvolvimento Sustentável

GT Educação Popular e Saúde

GT Alimentação e Nutrição em Saúde Coletiva

 

[1] Livro editado pela CNBB no final de 2015.

[2] Disponível em http://u.saude.gov.br/images/pdf/2014/julho/15/Instrucoes-para-uso-de-pyriproxifennmaio-2014.pdf)

[3] UBV é uma técnica que utiliza equipamentos motorizados ou costal de alta pressão fazendo com que as partículas sejam menores, aumentando sua dispersão no ambiente e a penetração nos pulmões pela inalação das pessoas expostas.

[4] Armed Forces Pest Management Board, por meio do Memorando nº 13 – TECHNICAL INFORMATION MEMORANDUM NO. 13, do Centro Médico do Instituto Walter Reed). Disponível em: http://www.afpmb.org/pubs/tims/tim13.htm#Equipment

[5] Ver NT da Abrasco de 2014 https://goo.gl/GbAXx7

[6] Disponível em: http://u.saude.gov.br/images/pdf/2014/maio/30/Instrucoes-para-uso-de-pyriproxifen-maio-2014.pdf

[7] Disponível em: https://www.iarc.fr/en/media-centre/iarcnews/pdf/MonographVolume112.pdf

[8] Coordenação Geral do Programa Nacional de Controle da Dengue / Departamento de Vigilância em Saúde / Secretaria de Vigilância em Saúde

[9] Disponível em: http://www.saude.mppr.mp.br/arquivos/File/dengue/nt_aval_vul_epid_dengue_verao_10_11.pdf

[10] Disponível em: http://u.saude.gov.br/images/pdf/2014/maio/30/Instrucoes-para-uso-de-pyriproxifen-maio-2014.pdf

[12] Disponível em: https://www.iarc.fr/en/media-centre/iarcnews/pdf/MonographVolume112.pdf

[13] Disponível em: http://u.saude.gov.br/images/pdf/2014/setembro/02/Recomenda—-es-para-o-uso-de-malathion-EW.pdf

[14] Disponível em: http://www.diariodepernambuco.com.br/app/noticia/brasil/2016/01/20/interna_brasil,622575/sobe-para-3-893-o-numero-de-casos-de-microcefalia-no-pais.shtml

[15] Disponível em: http://ecdc.europa.eu/en/publications/Publications/zika-microcephaly-Brazil-rapid-risk-assessment-Nov-2015.pdf

[16] Ver aspectos toxicológicos do DEET em: http://www.health.state.mn.us/divs/eh/risk/guidance/gw/deet.pdf

[17] Fabricado pela Bayer.

Study suggests different written languages are equally efficient at conveying meaning (Eureka/University of Southampton)

PUBLIC RELEASE: 1-FEB-2016

UNIVERSITY OF SOUTHAMPTON

IMAGE

IMAGE: A STUDY LED BY THE UNIVERSITY OF SOUTHAMPTON HAS FOUND THERE IS NO DIFFERENCE IN THE TIME IT TAKES PEOPLE FROM DIFFERENT COUNTRIES TO READ AND PROCESS DIFFERENT LANGUAGES. view more  CREDIT: UNIVERSITY OF SOUTHAMPTON

A study led by the University of Southampton has found there is no difference in the time it takes people from different countries to read and process different languages.

The research, published in the journal Cognition, finds the same amount of time is needed for a person, from for example China, to read and understand a text in Mandarin, as it takes a person from Britain to read and understand a text in English – assuming both are reading their native language.

Professor of Experimental Psychology at Southampton, Simon Liversedge, says: “It has long been argued by some linguists that all languages have common or universal underlying principles, but it has been hard to find robust experimental evidence to support this claim. Our study goes at least part way to addressing this – by showing there is universality in the way we process language during the act of reading. It suggests no one form of written language is more efficient in conveying meaning than another.”

The study, carried out by the University of Southampton (UK), Tianjin Normal University (China) and the University of Turku (Finland), compared the way three groups of people in the UK, China and Finland read their own languages.

The 25 participants in each group – one group for each country – were given eight short texts to read which had been carefully translated into the three different languages. A rigorous translation process was used to make the texts as closely comparable across languages as possible. English, Finnish and Mandarin were chosen because of the stark differences they display in their written form – with great variation in visual presentation of words, for example alphabetic vs. logographic(1), spaced vs. unspaced, agglutinative(2) vs. non-agglutinative.

The researchers used sophisticated eye-tracking equipment to assess the cognitive processes of the participants in each group as they read. The equipment was set up identically in each country to measure eye movement patterns of the individual readers – recording how long they spent looking at each word, sentence or paragraph.

The results of the study showed significant and substantial differences between the three language groups in relation to the nature of eye movements of the readers and how long participants spent reading each individual word or phrase. For example, the Finnish participants spent longer concentrating on some words compared to the English readers. However, most importantly and despite these differences, the time it took for the readers of each language to read each complete sentence or paragraph was the same.

Professor Liversedge says: “This finding suggests that despite very substantial differences in the written form of different languages, at a basic propositional level, it takes humans the same amount of time to process the same information regardless of the language it is written in.

“We have shown it doesn’t matter whether a native Chinese reader is processing Chinese, or a Finnish native reader is reading Finnish, or an English native reader is processing English, in terms of comprehending the basic propositional content of the language, one language is as good as another.”

The study authors believe more research would be needed to fully understand if true universality of language exists, but that their study represents a good first step towards demonstrating that there is universality in the process of reading.

###

Notes for editors:

1) Logographic language systems use signs or characters to represent words or phrases.

2) Agglutinative language tends to express concepts in complex words consisting of many sub-units that are strung together.

3) The paper Universality in eye movements and reading: A trilingual investigation, (Simon P. Liversedge, Denis Drieghe, Xin Li, Guoli Yan, Xuejun Bai, Jukka Hyönä) is published in the journal Cognition and can also be found at: http://eprints.soton.ac.uk/382899/1/Liversedge,%20Drieghe,%20Li,%20Yan,%20Bai,%20%26%20Hyona%20(in%20press)%20copy.pdf

 

Semantically speaking: Does meaning structure unite languages? (Eureka/Santa Fe Institute)

1-FEB-2016

Humans’ common cognitive abilities and language dependance may provide an underlying semantic order to the world’s languages

SANTA FE INSTITUTE

We create words to label people, places, actions, thoughts, and more so we can express ourselves meaningfully to others. Do humans’ shared cognitive abilities and dependence on languages naturally provide a universal means of organizing certain concepts? Or do environment and culture influence each language uniquely?

Using a new methodology that measures how closely words’ meanings are related within and between languages, an international team of researchers has revealed that for many universal concepts, the world’s languages feature a common structure of semantic relatedness.

“Before this work, little was known about how to measure [a culture’s sense of] the semantic nearness between concepts,” says co-author and Santa Fe Institute Professor Tanmoy Bhattacharya. “For example, are the concepts of sun and moon close to each other, as they are both bright blobs in the sky? How about sand and sea, as they occur close by? Which of these pairs is the closer? How do we know?”

Translation, the mapping of relative word meanings across languages, would provide clues. But examining the problem with scientific rigor called for an empirical means to denote the degree of semantic relatedness between concepts.

To get reliable answers, Bhattacharya needed to fully quantify a comparative method that is commonly used to infer linguistic history qualitatively. (He and collaborators had previously developed this quantitative method to study changes in sounds of words as languages evolve.)

“Translation uncovers a disagreement between two languages on how concepts are grouped under a single word,” says co-author and Santa Fe Institute and Oxford researcher Hyejin Youn. “Spanish, for example, groups ‘fire’ and ‘passion’ under ‘incendio,’ whereas Swahili groups ‘fire’ with ‘anger’ (but not ‘passion’).”

To quantify the problem, the researchers chose a few basic concepts that we see in nature (sun, moon, mountain, fire, and so on). Each concept was translated from English into 81 diverse languages, then back into English. Based on these translations, a weighted network was created. The structure of the network was used to compare languages’ ways of partitioning concepts.

The team found that the translated concepts consistently formed three theme clusters in a network, densely connected within themselves and weakly to one another: water, solid natural materials, and earth and sky.

“For the first time, we now have a method to quantify how universal these relations are,” says Bhattacharya. “What is universal – and what is not – about how we group clusters of meanings teaches us a lot about psycholinguistics, the conceptual structures that underlie language use.”

The researchers hope to expand this study’s domain, adding more concepts, then investigating how the universal structure they reveal underlies meaning shift.

Their research was published today in PNAS.

Feyerabend and the harmfulness of the ontological turn (Agent Swarm)

Posted on 

by Terence Blake

Feyerabend stands in opposition to the demand for a new construction that some thinkers have made after the supposed failure or historical obsolescence of deconstruction and of post-structuralism in general. On the contrary, he wholeheartedly endorses the continued necessity of deconstruction. Feyerabend also rejects the idea that we need an overarching system or a unified theoretical framework, arguing that in many cases a system or theoretical framework is just not necessary or even useful:

a theoretical framework may not be needed (do I need a theoretical framework to get along with my neighbor?) . Even a domain that uses theories may not need a theoretical framework (in periods of revolution theories are not used as frameworks but are broken into pieces which are then arranged this way and that way until something interesting seems to arise) (Philosophy and Methodology of Military Intelligence, 13).

Further, not only is a unified framework often unnecessary, it is undesirable, as it can be a hindrance to our research and to the conduct of our lives:

“frameworks always put undue constraints on any interesting activity” (ibid, 13).

Feyerabend emphasises that our ideas must be sufficiently complex to fit in and to cope with the complexity of our practices (11). More important than a new theoretical construction which only serves “to confuse people instead of helping them” we need ideas that have the complexity and the fluidity that come from close connection with concrete practice and with its “fruitful imprecision” (11).

Lacking this connection, we get only school philosophies that “deceive people but do not help them”. They deceive people by replacing the concrete world with their own abstract construction

that gives some general and very mislead[ing] outlines but never descends to details.

The result is a simplistic set of slogans and stereotypes that

“is taken seriously only by people who have no original ideas and think that [such a school philosophy] might help them getting ideas”.

Applied to the the ontological turn, this means that an ontological system is useless, a hindrance to thought and action, whereas an ontology which is not crystallised into a unified system and a closed set of fixed principles, but which limits itself to proposing an open set of rules of thumb and of free study of concrete cases is both acceptable and desirable. The detour through ontology is both useless and harmful, according to Feyerabend, because a freer, more open, and less technical approach is possible.

OMS declara vírus zica e microcefalia ‘emergência pública internacional’ (JC)

Comitê de Emergência se reuniu pela primeira vez nesta segunda-feira (1) para reagir ao aumento do número de casos de desordens neurológicas e malformações congênitas, sobretudo nas Américas. País mais atingido é o Brasil

A Organização Mundial da Saúde (OMS) realizou nesta segunda-feira (1) a primeira reunião do Comité de Emergência que trata dos recentes casos de microcefalia e outros distúrbios neurológicos em áreas afetadas pelo vírus zika, sobretudo nas Américas. O país mais atingido é o Brasil.

O Secretariado da OMS informou ao Comitê sobre a situação dos casos de microcefalia e Síndrome de Guillain-Barré, circunstancialmente associados à transmissão do vírus zika. O Comitê foi recebeu informações sobre a história do vírus zika, sua extensão, apresentação clínica e epidemiologia.

As representações do Brasil, França, Estados Unidos e El Salvador apresentaram as primeiras informações sobre uma potencial associação entre a microcefalia – bem como outros distúrbios neurológicos – e a doença provocada pelo vírus zika.

Segundo o comunicado da OMS, os especialistas reunidos em Genebra concordam que uma relação causal entre a infecção do zika durante a gravidez e microcefalia é “fortemente suspeita”, embora ainda não comprovada cientificamente.

A falta de vacinas e testes de um diagnóstico rápido e confiável, bem como a ausência de imunidade da população em países recém-afetados, foram citadas como novos motivos de preocupação.

Para a Comissão da OMS, o recente conjunto de casos microcefalia e outros distúrbios neurológicos relatados no Brasil, logo após ocorrências semelhantes na Polinésia Francesa, em 2014, constituem uma “emergência de saúde pública de importância internacional”, condição conhecida também pela sua sigla em inglês (PHEIC).

Em uma decisão aceita pela diretora-geral da OMS, Margaret Chan, o Comitê da agência da ONU busca assim coordenar uma resposta global de modo a minimizar a ameaça nos países afetados e reduzir o risco de propagação internacional.

Recomendações à diretora-geral da OMS

O Comitê, em resposta às informações fornecidas, fez recomendações à OMS sobre medidas a serem tomadas.

Em relação aos distúrbios neurológicos e microcefalia, o Comitê sugere que a vigilância de microcefalia e da Síndrome de Guillain-Barré deve ser padronizada e melhorada, particularmente em áreas conhecidas de transmissão do vírus zika, bem como em áreas de risco de transmissão.

O Comitê também recomendou que seja intensificada a investigação acerca da etiologia – a causa das doenças – nos novos focos onde ocorrem os casos de distúrbios neurológicos e de microcefalia, para determinar se existe uma relação causal entre o vírus zika e outros fatores desconhecidos.

Como estes grupos se situam em áreas recém-infectadas com o vírus zika, de acordo com as boas práticas de saúde pública e na ausência de outra explicação para esses agrupamentos, o Comitê destaca a importância de “medidas agressivas” para reduzir a infecção com o vírus zika, especialmente entre as mulheres grávidas e mulheres em idade fértil.

Como medida de precaução, o Comitê fez as seguintes recomendações adicionais:

Transmissão do vírus zika

A vigilância para infecção pelo vírus zika deve ser reforçada, com a divulgação de definições de casos padrão e diagnósticos para áreas de risco.

O desenvolvimento de novos diagnósticos de infecção pelo vírus zika devem ser priorizados para facilitar as medidas de vigilância e de controle.

A comunicação de risco deve ser reforçada em países com transmissão do vírus zika para responder às preocupações da população, reforçar o envolvimento da comunidade, melhorar a comunicação e assegurar a aplicação de controle de vetores e medidas de proteção individual.

Medidas de controle de vetores e medidas de proteção individual adequada devem ser agressivamente promovidas e implementadas para reduzir o risco de exposição ao vírus zika.

Atenção deve ser dada para assegurar que as mulheres em idade fértil e mulheres grávidas em especial tenham as informações e materiais necessários para reduzir o risco de exposição.

As mulheres grávidas que tenham sido expostas ao vírus zika devem ser aconselhadas e acompanhadas por resultados do nascimento com base na melhor informação disponível e práticas e políticas nacionais.

Medidas de longo prazo

Esforços de pesquisa e desenvolvimento apropriados devem ser intensificados para vacinas, terapias e diagnósticos do vírus zika.

Em áreas conhecidas de transmissão do vírus zika, os serviços de saúde devem estar preparados para o aumento potencial de síndromes neurológicas e/ou malformações congênitas.

Medidas de viagem

Não deve haver restrições a viagens ou ao comércio com países, regiões e/ou territórios onde esteja ocorrendo a transmissão do vírus zika.

Viajantes para áreas com transmissão do vírus zika devem receber informações atualizadas sobre os potenciais riscos e medidas adequadas para reduzir a possibilidade de exposição a picadas do mosquito.

Recomendações da OMS sobre padrões em matéria de desinfestação de aeronaves e aeroportos devem ser implementadas.

Compartilhamento de dados

As autoridades nacionais devem garantir a comunicação e o compartilhamento ágeis e em tempo de informações relevantes de importância para a saúde pública, para esta Emergência.

Dados clínicos, virológicos e epidemiológicos, relacionados com o aumento das taxas de microcefalia e/ou Síndrome de Guillain-Barré, ou com a transmissão do vírus zika, devem ser rapidamente compartilhados com a OMS para facilitar a compreensão internacional destes eventos, para orientar o apoio internacional para os esforços de controle, priorizando a pesquisa e desenvolvimento de produtos.

Acompanhe:

http://who.int/emergencies/zika-virus

http://new.paho.org/bra

http://combateaedes.saude.gov.br

http://bit.ly/zikaoms

ONU

 

Leia também:

Agência Brasil – Notificação de casos de Zika passa a ser obrigatória no Brasil

The controversy about the relationship between GM mosquitoes and the Zika virus outbreak in Brazil

 

Pandora’s box: how GM mosquitos could have caused Brazil’s microcephaly disaster (The Ecologist)

Oliver Tickell

1st February 2016

Aedes Aegypti mosquito feeding on human blood. Photo: James Gathany via jentavery on Flickr (CC BY).

Aedes Aegypti mosquito feeding on human blood. This is the species that transmits Zika, and that was genetically engineered by Oxitec using the piggyBac transposon. Photo: James Gathany via jentavery on Flickr (CC BY).

In Brazil’s microcephaly epidemic, one vital question remains unanswered: how did the Zika virus suddenly learn how to disrupt the development of human embryos? The answer may lie in a sequence of ‘jumping DNA’ used to engineer the virus’s mosquito vector – and released into the wild four years ago in the precise area of Brazil where the microcephaly crisis is most acute.

These ‘promiscuous’ transposons have found special favour with genetic engineers, whose goal is to create ‘universal’ systems for transferring genes into any and every species on earth. Almost none of the geneticists has considered the hazards involved.

Since August 2015, a large number of babies in Northeast Brazil have been born with very small heads, a condition known as microcephaly, and with other serious malformations. 4,180 suspected cases have been reported.

Epidemiologists have found a convincing correlation between the incidence of the natal deformities and maternal infections with the Zika virus, first discovered in Uganda’s Zika Valley in 1947, which normally produces non-serious illness.

The correlation has been evidenced through the geographical distrubution of Zika infections and the wave of deformities. Zika virus has also been detected in the amniotic fluids and other tissues of the affected babies and their mothers.

This latter finding was recently reported by AS Oliveira Melo et al in a scientific paperpublished in the journal Ultrasound in Obstetrics & Gynecology, which noted evidence of intra-uterine infection. They also warn:

“As with other intrauterine infections, it is possible that the reported cases of microcephaly represent only the more severely affected children and that newborns with less severe disease, affecting not only the brain but also other organs, have not yet been diagnosed.”

The Brazilian Health Minister, Marcelo Castro, says he has “100% certainty” that there is a link between Zika and microcephaly. His view is supported by the medical community worldwide, including by the US Center for Disease Control.

Oliveira Melo et al draw attention to a mystery that lies at the heart of the affair: “It is difficult to explain why there have been no fetal cases of Zika virus infection reported until now but this may be due to the underreporting of cases, possible early acquisition of immunity in endemic areas or due to the rarity of the disease until now.

“As genomic changes in the virus have been reported, the possibility of a new, more virulent, strain needs to be considered. Until more cases are diagnosed and histopathological proof is obtained, the possibility of other etiologies cannot be ruled out.”

And this is the key question: how – if indeed Zika really is the problem, as appears likely – did this relatively innocuous virus acquire the ability to produce these terrible malformations in unborn human babies?

Oxitec’s GM mosquitoes

An excellent article by Claire Bernish published last week on AntiMedia draws attention to an interesting aspect of the matter which has escaped mainstream media attention: the correlation between the incidence of Zika and the area of release of genetically modified Aedes aegypti mosquitos engineered for male insterility (see maps, above right).

The purpose of the release was to see if it controlled population of the mosquitos, which are the vector of Dengue fever, a potentially lethal disease. The same species also transmits the Zika virus.

The releases took in 2011 and 2012 in the Itaberaba suburb of the city of Juazeiro, Bahia, Northeast Brazil, about 500 km west of ther coastal city of Recife. The experiment was written up in July 2015 in the journal PLOS Neglected Tropical Diseases in a paper titled ‘Suppression of a Field Population of Aedes aegypti in Brazil by Sustained Release of Transgenic Male Mosquitoes’ by Danilo O. Carvalho et al.

An initial ‘rangefinder of 30,000 GM mosquitos per week took place between 19th May and 29th June 2011, followed by a much larger release of 540,000 per week in early 2012, ending on 11th February.

At the end of it the scientists claimed “effective control of a wild population of Ae. aegypti by sustained releases of OX513A male Ae. aegypti. We diminished Ae. aegypti population by 95% (95% CI: 92.2%-97.5%) based on adult trap data and 78% (95% CI: 70.5%-84.8%) based on ovitrap indices compared to the adjacent no-release control area.”

So what’s to worry about?

    The idea of the Oxitec mosquitoes is simple enough: the males produce non-viable offspring which all die. So the GM mosqitoes are ‘self-extinguishing’ and the altered genes cannot survive in the wild population. All very clever, and nothing to worry about!

    But in fact, it’s not so simple. In 2010 geneticist Ricarda Steinbrecher wrote to the biosafety regulator in Malaysia – also considering a release of the Oxitec mosquitoes – with a number of safety concerns, pointing out the 2007 finding by Phuc et al that 3-4% of the first generation mosquitos actually survive.

    The genetic engineerig method employed by Oxitec allows the popular antibiotic tetracycline to be used to repress the lethality during breeding. But as a side-effect, the lethality is also reduced by the presence of tetracycline in the environment; and as Bernish points out, Brazil is among the world’s biggest users of anti-microbials including tetracycline in its commercial farming sector:

    “As a study by the American Society of Agronomy, et. al., explained, ‘It is estimated that approximately 75% of antibiotics are not absorbed by animals and are excreted in waste.’ One of the antibiotics (or antimicrobials) specifically named in that report for its environmental persistence is tetracycline.

    In fact, as a confidential internal Oxitec document divulged in 2012, that survival rate could be as high as 15% – even with low levels of tetracycline present. ‘Even small amounts of tetracycline can repress’ the engineered lethality. Indeed, that 15% survival rate was described by Oxitec.”

    She then quotes the leaked Oxitec paper: “After a lot of testing and comparing experimental design, it was found that [researchers] had used a cat food to feed the [OX513A] larvae and this cat food contained chicken. It is known that tetracycline is routinely used to prevent infections in chickens, especially in the cheap, mass produced, chicken used for animal food. The chicken is heat-treated before being used, but this does not remove all the tetracycline. This meant that a small amount of tetracycline was being added from the food to the larvae and repressing the [designed] lethal system.”

    So in other words, there is every possibility for Oxitec’s modified genes to persist in wild populations of Aedes aegypti mosquitos, especially in the environmental presence of tetracycline which is widely present in sewage, septic tanks, contaminated water sources and farm runoff.

    ‘Promiscuous’ jumping genes

    On the face of it, there is no obvious way in which the spread of Oxitec’s GM mosquitos into the wild could have anything to do with Brazil’s wave of micrcophaly. Is there?

    Actually, yes. The problem may arise from the use of the ‘transposon’ (‘jumping’ sequence of DNA used in the genetic engineering process to introduce the new genes into the target organism). There are several such DNA sequences in use, and one of the most popular is known as known as piggyBac.

    As a 2001 review article by Dr Mae Wan Ho shows, piggyBac is notoriously active, inserting itself into genes way beyond its intended target: “These ‘promiscuous’ transposons have found special favour with genetic engineers, whose goal is to create ‘universal’ systems for transferring genes into any and every species on earth. Almost none of the geneticists has considered the hazards involved …

    “It would seem obvious that integrated transposon vectors may easily jump out again, to another site in the same genome, or to the genome of unrelated species. There are already signs of that in the transposon, piggyBac, used in the GM bollworms to be released by the USDA this summer.

    The piggyBac transposon was discovered in cell cultures of the moth Trichopulsia, the cabbage looper, where it caused high rates of mutations in the baculovirus infecting the cells by jumping into its genes … This transposon was later found to be active in a wide range of species, including the fruitfly Drosophila, the mosquito transmitting yellow fever, Aedes aegypti, the medfly, Ceratitis capitata, and the original host, the cabbage looper.

    “The piggyBac vector gave high frequencies of transpositions, 37 times higher than mariner and nearly four times higher than Hirmar.”

    In a later 2014 report Dr Mae Wan Ho returned to the theme with additional detail and fresh scientific evidence (please refer to her original article for references): “The piggyBac transposon was discovered in cell cultures of the moth Trichopulsia, the cabbage looper, where it caused high rates of mutations in the baculovirus infecting the cells by jumping into its genes …

    “There is also evidence that the disabled piggyBac vector carrying the transgene, even when stripped down to the bare minimum of the border repeats, was nevertheless able to replicate and spread, because the transposase enzyme enabling the piggyBac inserts to move can be provided by transposons present in all genomes.

    “The main reason initially for using transposons as vectors in insect control was precisely because they can spread the transgenes rapidly by ‘non-Mendelian’ means within a population, i.e., by replicating copies and jumping into genomes, thereby ‘driving’ the trait through the insect population. However, the scientists involved neglected the fact that the transposons could also jump into the genomes of the mammalian hosts including human beings …

    “In spite of instability and resulting genotoxicity, the piggyBac transposon has been used extensively also in human gene therapy. Several human cell lines have been transformed, even primary human T cells using piggyBac. These findings leave us little doubt that the transposon-borne transgenes in the transgenic mosquito can transfer horizontally to human cells. The piggyBac transposon was found to induce genome wide insertionmutations disrupting many gene functions.” 

    Has the GM nightmare finally come true?

    So down to the key question: was the Oxitec’s GM Aedes aegypti male-sterile mosquito released in Juazeiro engineered with the piggyBac transposon? Yes, it was. And that creates a highly significant possibility: that Oxitec’s release of its GM mosquitos led directly to the development of Brazil’s microcephaly epidemic through the following mechanism:

    1. Many of the millions of Oxitec GM mosquitos released in Juazeiro in 2011/2012 survive, assisted, but not dependent on, the presence of tetracycline in the environment.

    2. These mosquitos interbreed with with the wild population and their novel genes become widespread.

    3. The promiscuous piggyBac transposon now present in the local Aedes aegyptipopulation takes the opportunity to jump into the Zika virus, probably on numerous occasions.

    4. In the process certain mutated strains of Zika acquire a selective advantage, making them more virulent and giving them an enhanced ability to enter and disrupt human DNA.

    5. One way in which this manifests is by disrupting a key stage in the development of human embryos in the womb, causing microcephaly and the other reported deformations. Note that as Melo Oliveira et al warn, there are almost certainly other manifestations that have not yet been detected.

    6. It may be that the piggyBac transposon has itself entered the DNA of babies exposed in utero to the modified Zika virus. Indeed, this may form part of the mechanism by which embryonic development is disrupted.

    In the latter case, one implication is that the action of the gene could be blocked by giving pregnant women tetracycline in order to block its activity. The chances of success are probably low, but it has to be worth trying.

    No further releases of GM insects!

    While I am certainly not claiming that this is what actually took place, it is at least a credible hypothesis, and moreover a highly testable one. Nothing would be easier for genetic engineers than to test amniotic fluids, babies’ blood, wild Aedes mosquitos and the Zika virus itself for the presence of the piggyBac transposon, using well established and highly sensitive PCR (polymerase chain reaction) techniques.

    If this proves to be the case, those urging caution on the release of GMOs generally, and transgenic insects bearing promiscuous transposons in particular, will have been proved right on all counts.

    But most important, such experiments, and any deployment of similar GM insects, must be immediately halted until the possibilities outlined above can be safely ruled out. There are plans, for example, to release similarly modified Anopheles mosquitos as an anti-malarial measure.

    There are also calls for even more of the Oxitec Aedes aegypti mosquitos to be released in order to halt the transmission of the Zika virus. If that were to take place, it could give rise to numerous new mutations of the virus with the potential to cause even more damage to the human genome, that we can, at this stage, only guess at.

    Oliver Tickell edits The Ecologist.


     

    No, GM Mosquitoes Didn’t Start The Zika Outbreak (Discovery)

    By Christie Wilcox | January 31, 2016 9:56 pm

    ZIka_conspiracy_theory_cat

    A new ridiculous rumor is spreading around the internets. According to conspiracy theorists, the recent outbreak of Zika can be blamed on the British biotech company Oxitec, which some are saying even intentionally caused the disease as a form of ethnic cleansing or population control. The articles all cite a lone Redditor who proposed the connection on January 25th to the Conspiracy subreddit. “There are no biological free lunches,” says one commenter on the idea. “Releasing genetically altered species into the environment could have disastrous consequences” another added. “Maybe that’s what some entities want to happen…?”

    For some reason, it’s been one of those months where random nonsense suddenly hits mainstream. Here are the facts: there’s no evidence whatsoever to support this conspiracy theory, or any of the other bizarre, anti-science claims that have popped up in the past few weeks. So let’s stop all of this right here, right now: The Earth is round, not flat (and it’s definitely not hollow). Last year was the hottest year on record, and climate change is really happening (so please just stop, Mr. Cruz). And FFS, genetically modified mosquitoes didn’t start the Zika outbreak. 

    Background on Zika

    The Zika virus is a flavivirus closely related to notorious pathogens including dengue, yellow fever, Japanese encephalitis, and West Nile virus. The virus is transmitted by mosquitoes in the genus Aedes, especially A. aegypti, which is a known vector for many of Zika’s relatives. Symptoms of the infection appear three to twelve days post bite. Most people are asymptomatic, which means they show no signs of infection. The vast majority of those who do show signs of infection report fever, rash, joint pain, and conjunctivitis (red eyes), according to the U.S. Centers for Disease Control. After a week or less, the symptoms tend to go away on their own. Serious complications have occurred, but they have been extremely rare.

    The Zika virus isn’t new. It was first isolated in 1947 from a Rhesus monkey in the Zika Forest in Uganda, hence the pathogen’s name. The first human cases were confirmed in Uganda and Tanzania in 1952, and by 1968, the virus had spread to Nigeria. But since then, the virus has found its way out of Africa. The first major outbreak occurred on the island of Yap in Micronesia for 13 weeks 2007, during which 185 Zika cases were suspected (49 of those were confirmed, with another 59 considered probable). Then, in October 2013, an outbreak began in French Polynesia; around 10,000 cases were reported, less than 100 of which presented with severe neurological or autoimmune complications. One confirmed case of autochthonous transmission occurred in Chile in 2014, which means a person was infected while they were in Chile rather than somewhere else. Cases were also reported that year from several Pacific Islands. The virus was detected in Chile until June 2014, but then it seemed to disappear.

    Fast forward to May 2015, when the Pan American Health Organization (PAHO) issued an alert regarding the first confirmed Zika virus infection in Brazil. Since then, several thousand suspected cases of the disease and a previously unknown complication—a kind of birth defect known as microcephaly where the baby’s brain is abnormally small—have been reported from Brazil. (It’s important to note that while the connection between the virus and microcephaly is strongly suspected, the link has yet to be conclusively demonstrated.)

    Currently, there is no vaccine for Zika, though the recent rise in cases has spurred research efforts. Thus, preventing mosquito bites is the only prophylactic measure available.

    The recent spread of the virus has been described as “explosive”; Zika has now been detected in 25 countries and territories. The rising concern over both the number of cases and reports of serious complications has led the most affected areas in Brazil to declare a state of emergency, and on Monday, The World Health Organization’s Director-General will convene an International Health Regulations Emergency Committee on Zika virus and the observed increase in neurological disorders and neonatal malformations. At this emergency meeting, the committee will discuss mitigation strategies and decide whether the organization will officially declare the virus a “Public Health Emergency of International Concern.”

    GM to the Rescue

    aedes_aegypti

    The mosquito to blame for the outbreak—Aedes aegypti—doesn’t belong in the Americas. It’s native to Africa, and was only introduced in the new world when Europeans began to explore the globe. In the 20th century, mosquito control programs nearly eradicated the unwelcome menace from the Americas (largely thanks to the use of the controversial pesticide DDT); as late as the mid 1970s, Brazil and 15 other nations were Aedes aegypti-free. But despite the successes, eradication efforts were halted, allowing the mosquito to regain its lost territory.

    The distribution of Aedes aegypti in the Americas in 1970 and 2002.

    Effective control measures are expensive and difficult to maintain, so at the tail end of the 20th century and into the 21st, scientists began to explore creative means of controlling mosquito populations, including the use of genetic modification. Oxitec’s mosquitoes are one of the most exciting technologies to have emerged from this period. Here’s how they work, as I described in a post almost exactly a year ago:

    While these mosquitoes are genetically modified, they aren’t “cross-bred with the herpes simplex virus and E. colibacteria” (that would be an interkingdom ménage à trois!)—and no, they cannot be “used to bite people and essentially make them immune to dengue fever and chikungunya” (they aren’t carrying a vaccine!). The mosquitoes that Oxitec have designed are what scientists call “autocidal” or possess a “dominant lethal genetic system,” which is mostly fancy wording for “they die all by themselves”. The males carry inserted DNA which causes the mosquitoes to depend upon a dietary supplement that is easy to provide in the lab, but not available in nature. When the so-called mutants breed with normal females, all of the offspring require the missing dietary supplement because the suicide genes passed on from the males are genetically dominantThus, the offspring die before they can become adults. The idea is, if you release enough such males in an area, then the females won’t have a choice but to mate with them. That will mean there will be few to no successful offspring in the next generation, and the population is effectively controlled.

    Male mosquitoes don’t bite people, so they cannot serve as transmission vectors for Zika or any other disease. As for fears that GM females will take over: less than 5% of all offspring survive in the laboratory, and as Glen Slade, director of Oxitec’s Brazilian branch notes, those are the best possible conditions for survival. “It is considered unlikely that the survival rate is anywhere near that high in the harsher field conditions since offspring reaching adulthood will have been weakened by the self-limiting gene,” he told me. And contrary to what the conspiracy theorists claim, scientists have shown that tetracycline in the environment doesn’t increase that survival rate.

    Brazil, a hotspot for dengue and other such diseases, is one of the countries where Oxitec is testing their mozzies—so far, everywhere that Oxitec’s mosquitoes have been released, the local populations have been suppressed by about 90%.

    Wrong Place, Wrong Time

    Now that we’ve covered the background on the situation, let’s dig into the conspiracy theory. We’ll start with the main argument laid out as evidence: that the Zika outbreak began in the same location at the same time as the first Oxitec release:

    Though it’s often said, it’s worth repeating: correlation doesn’t equal causation. If it did, then Nicholas Cage is to blame for people drowning (Why, Nick? WHY?). But even beyond that, there are bigger problems with this supposed correlation: even by those maps, the site of release is on the fringe of the Zika hotspot, not the center of it. Just look at the two overlaid:

    The epicenter of the outbreak and the release clearly don’t line up—the epicenter is on the coast rather than inland where the map points. Furthermore, the first confirmed cases weren’t reported in that area, but in the town of Camaçari, Bahia, which is—unsurprisingly—on the coast and several hundred kilometers from the release site indicated.

    But perhaps more importantly, the location on the map isn’t where the mosquitoes were released. That map points to Juazeiro de Norte, Ceará, which is a solid 300 km away from Juazeiro, Bahia—the actual site of the mosquito trial. That location is even more on the edge of the Zika-affected area:

    1: Juaziero de Norte, the identified location in by conspiracy theorists. 2: Juaziero, the actual location of Oxitec's release trial, about 300 km away.

    The mistake was made initially by the Redditor who proposed the conspiracy theory and has been propagated through lazy journalistic practices by every proponent since. Here’s a quick tip: if you’re basing your conspiracy theory on location coincidence, it’s probably a good idea to actually get the location right.

    They’re also wrong about the date. According to the D.C. Clothesline:

    By July 2015, shortly after the GM mosquitoes were first released into the wild in Juazeiro, Brazil, Oxitec proudly announced they had “successfully controlled the Aedes aegypti mosquito that spreads dengue fever, chikungunya and zika virus, by reducing the target population by more than 90%.”

    However, GM mosquitoes weren’t first released in Juazeiro, Bahia (let alone Juazeiro de Norte, Ceará) in 2015. Instead, the announcement by Oxitec was of the published results of a trial that occurred in Juaziero between May 2011 and Sept 2012—a fact which is clearly stated in the methods and results of the paper that Oxitec was so excited to share.

    A new control effort employing Oxitec mosquitoes did begin in April 2015, but not in Juaziero, or any of the northeastern states of Brazil where the disease outbreak is occurring. As another press release from Oxitec states, the 2015 releases of their GM mosquitoes were in Piracicaba, São Paulo, Brazil:

    Following approval by Brazil’s National Biosafety Committee (CTNBio) for releases throughout the country, Piracicaba’s CECAP/Eldorado district became the world’s first municipality to partner directly with Oxitec and in April 2015 started releasing its self-limiting mosquitoes whose offspring do not survive. By the end of the calendar year, results had already indicated a reduction in wild mosquito larvae by 82%. Oxitec’s efficacy trials across Brazil, Panama and the Cayman Islands all resulted in a greater than 90% suppression of the wild Ae. aegypti mosquito population–an unprecedented level of control.

    Based on the positive results achieved to date, the ‘Friendly Aedes aegypti Project’ in CECAP/Eldorado district covering 5,000 people has been extended for another year. Additionally, Oxitec and Piracicaba have signed a letter of intent to expand the project to an area of 35,000-60,000 residents. This geographic region includes the city’s center and was chosen due to the large flow of people commuting between it and surrounding neighborhoods which may contribute to the spread of infestations and infections.

    Piracicaba mosquito control results

     

    Piracicaba, for the record, is more than 1300 miles away from the Zika epicenter:

    TKTK

    So not only did the conspiracy theorists get the location of the first Brazil release wrong, they either got the date wrong, too, or got the location of the 2015 releases really, really off. Either way, the central argument that the release of GM mosquitoes by Oxitec coincides with the first cases of Zika virus simply doesn’t hold up.

    Scientists Speak Out

    As this ludicrous conspiracy theory has spread, so, too, has the scientific opposition to it. “Frankly, I’m a little sick of this kind of anti-science platform,” said vector ecologist Tanjim Hossain from the University of Miami, when I asked him what he thought. “This kind of fear mongering is not only irresponsible, but may very well be downright harmful to vulnerable populations from a global health perspective.”

    Despite the specious allusions made by proponents of the conspiracy, this is still not Jurassic Park, says Hossain.

    “We have a problem where ZIKV is spreading rapidly and is widely suspected of causing serious health issues,” he continued. “How do we solve this problem? An Integrated Vector Management (IVM) approach is key. We need to use all available tools, old and new, to combat the problem. GM mosquitoes are a fairly new tool in our arsenal. The way I see it, they have the potential to quickly reduce a local population of vector mosquitoes to near zero, and thereby can also reduce the risk of disease transmission. This kind of strategy could be particularly useful in a disease outbreak ‘hotspot’ because you could hypothetically stop the disease in its tracks so to speak.”

    Other scientists have shared similar sentiments. Alex Perkins, a biological science professor at Notre Dame, told Business Insider that rather than causing the outbreak, GM mosquitoes might be our best chance to fight it. “It could very well be the case that genetically modified mosquitos could end up being one of the most important tools that we have to combat Zika,” Perkins said. “If anything, we should potentially be looking into using these more.”

    Brazilian authorities couldn’t be happier with the results so far, and are eager to continue to fight these deadly mosquitoes by any means they can. “The initial project in CECAP/Eldorado district clearly showed that the ‘friendly Aedes aegypti solution’ made a big difference for the inhabitants of the area, helping to protect them from the mosquito that transmits dengue, Zika and chikungunya,” said Pedro Mello, secretary of health in Piracicaba. He notes that during the 2014/2015 dengue season, before the trial there began, there were 133 cases of dengue. “In 2015/2016, after the beginning of the Friendly Aedes aegypti Project, we had only one case.”

    It’s long past time to stop villainizing Oxitec’s mosquitoes for crimes they didn’t commit. Claire BernishThe Daily MFailMirror and everyone else who has spread these baseless accusations: I’m talking to you. The original post was in the Conspiracy subreddit—what more of a red flag for “this is wildly inaccurate bullsh*t” do you need? (After all, if this is a legit source, where are your reports on the new hidden messages in the $100 bill? or why the Illuminati wants people to believe in aliens?). It’s well known that large-scale conspiracy theories are mathematically challenged. Don’t just post whatever crap is spewed on the internet because you know it’ll get you a few clicks. It’s dishonest, dangerous, and, frankly, deplorable to treat nonsense as possible truth just to prey upon your audience’s very real fears of an emerging disease. You, with your complete lack of integrity, are maggots feeding on the decay of modern journalism, and I mean that with no disrespect to maggots.

     

    Roraima registra 17 mil focos e cenário se parece com o de 1998 (Folha BV)

    QUEIMADAS AVANÇAM

    Situação do fogo caminha para uma situação muito semelhante ao grande incêndio de 1998, só que desta vez o Estado está melhor preparado

    Por Luan Guilherme Correia

    Em 27/01/2016 às 00:00

    Estimativa da Defesa Civil é que o Estado receba R$ 50 milhões para o combate à estiagem e incêndios (Foto: Rodrigo Sales)

    A situação crítica dos municípios de Roraima com a forte estiagem elevou para 17.567 o número de focos de calor registrados somente nos 26 primeiros dias do ano. Os dados são do Sistema de Informações Geográficas e Banco de Dados de todos os Focos, do Instituto Nacional de Pesquisas Espaciais (Inpe). A situação é muito semelhante ao grande incêndio que atingiu o Estado no ano de 1998.

    Os municípios mais afetados por queimadas são Caracaraí, com 4.029 focos; Rorainópolis, com 3.817; Caroebe, com 2.007; Mucajaí, com 1.772; e Iracema, com 1.173 registros. Os municípios de Bonfim, Cantá, São Luiz do Anauá, Pacaraima, Amajari, São João da Baliza, Normandia e Alto Alegre também registraram focos e decretaram situação de emergência por conta da estiagem.

    No decreto, os municípios justificaram a emergência para ação imediata de socorro e assistência à população. A alegação é de que a malha viária do Estado é de 7.949 quilômetros, sendo muitas vezes o único meio de acesso às localidades que sofrem com a estiagem. Cada município solicitou do Governo do Estado veículos do tipo pick-up para transporte terrestre de material e pessoal, máquinas retroescavadeiras e escavadeiras para recuperação e escavação de bebedouros e cacimbas, além das pranchas para o transporte dos maquinários.

    De acordo com a Defesa Civil Estadual, todos os municípios roraimenses enfrentam graves problemas com a escassez de água e os incêndios florestais. Para contornar a grave situação, o Corpo de Bombeiros mantém bases extras de combate a incêndios e queimadas.

    As bases estão montadas em Alto Alegre, Amajari, na região de Samaúma (Mucajaí), no Repartimento (Iracema) e na Vila Felix Pinto (Cantá), além do reforço do efetivo na Capital e nas companhias de Caracaraí, Rorainópolis e Pacaraima. São Luiz do Anauá e Caroebe, na região de Campos Novos, Sul do Estado, onde há a maior incidência de incêndios, inclusive criminosos, devem receber bases nos próximos dias.

    O secretário-executivo da Defesa Civil, coronel Claudimar Ferreira, destacou a necessidade de brigadistas para atuarem nas bases dos municípios. “Precisamos de reforço o quanto antes. Para isso, iremos contratar 150 brigadistas e vamos receber mais 100 homens do Exército. Além disso, pedimos mais efetivo da Secretaria Nacional da Defesa Civil para controlar a situação”, disse.

    Conforme ele, apesar de os incêndios em áreas de pastagens estarem sendo controlados, a prática criminosa de produtores rurais e de anônimos têm dificultado o trabalho dos brigadistas. “Essa prática não conseguimos dar conta, porque enquanto os bombeiros trabalham, outras pessoas ateiam fogo”, lamentou.

    A situação mais crítica, de acordo com Cleudiomar, está na região conhecida como “Arco de Fogo”, que abrange os municípios de Mucajaí, Cantá, Alto Alegre e Amajari. “Tivemos que deslocar para lá vários grupos de outras bases porque a situação saiu do controle. O caos foi total, mas com o reforço do efetivo essas áreas queimadas estão mais controladas”, explicou.

    Para ele, Roraima está se encaminhando para um cenário caótico por conta da estiagem, pior do que o encontrado em 1998, quando o Estado ganhou destaque mundial pelos grandes incêndios. “Naquela época, quando demos as primeiras respostas, a situação já era incontrolável. Hoje, estamos muito mais tranquilos, porque estamos nos planejando a tempo de evitar grandes prejuízos”, afirmou.

    Estimativa de recursos destinados ao combate à estiagem é de R$ 50 milhões

    Somando os recursos necessários para combater a estiagem em Roraima, a estimativa é que o Estado receba R$ 50 milhões nos próximos meses. Conforme o coronel Cleudiomar Ferreira, o montante deverá ser enviado após a formalização de um documento que vai definir onde e em que será aplicado.

    Os recursos devem ser empregados com a locação de veículos, máquinas, carretas, carros-pipa, além da contratação de brigadistas e reconstrução de pontes destruídas pela estiagem. “Após redimensionar toda essa estrutura, é provável que isso consiga atingir esse montante. Isso está sendo levantado entre a Defesa Civil e as Secretarias de Agricultura, Planejamento e Infraestrutura”, frisou o coronel. (L.G.C)

    Meteorologista da Funceme. “A gente fica feliz com essas chuvas” (O Povo)

    AGUANAMBI 282

    DOM 24/01/2016

    De acordo com o meteorologista da Funceme Raul Fritz, vórtice ciclônico, característico da pré-estação chuvosa, pode render chuvas intensas em janeiro, como ocorreu no ano de 2004

    Luana Severo, luanasevero@opovo.com.br

    FOTOS IANA SOARES

    Segundo Fritz, a ciência climática não chegou a um nível tão preciso para ter uma previsão confiável 

    Cotidiano

    “Nós não queremos ser Deus, apenas tentamos antecipar o que pode acontecer”. Nascido em Natal, no Rio Grande do Norte, Raul Fritz, de 53 anos, é supervisor da unidade de Tempo e Clima da Fundação Cearense de Meteorologia e Recursos Hídricos (Funceme). Ele, que afirmou não querer tomar o lugar de Deus nas decisões sobre o clima, começou a trabalhar para a Funceme em 1988, ainda como estagiário, pouco após uma estiagem que se prolongou por cinco anos no Estado, entre 1979 e 1983.

    Os anos de prática e a especialização em meteorologia por satélite conferem a Fritz a credibilidade necessária para, por meio de mapas, equações numéricas e o comportamento da natureza, estimar se chove ou não no semiárido cearense. Ele compôs, portanto, a equipe de meteorologistas da Fundação que, na última quarta-feira, 20, previu 65% de chances de chuvas abaixo da média entre os meses de fevereiro e abril deste ano prognóstico que, se concretizado, fará o Ceará completar cinco anos de seca.

    Em entrevista ao O POVO, ele detalha o parecer, define o sistema climático cearense e comenta sobre a conflituosa relação entre a Funceme e a população, que sustenta o hábito de desconfiar de todas as previsões do órgão, principalmente porque, um dia após a divulgação do prognóstico, o Estado foi tomado de susto por uma intensa chuvarada.

    O POVO – Mesmo com o prognóstico desanimador de 65% de chances de chuvas abaixo da média entre os meses de fevereiro e abril, o cearense tem renovado a fé num “bom inverno” devido às recentes precipitações influenciadas pelo Vórtice Ciclônico de Altos Níveis (VCAN). Há a possibilidade de esse fenômeno perdurar?

    Raul Fritz – Sim. Esse sistema que está atuando agora apresenta maior intensidade em janeiro. Ele pode perdurar até meados de fevereiro, principalmente pelas circunstâncias meteorológicas atmosféricas que a gente vê no momento.

    OP – Por que o VCAN não tem relação com a quadra chuvosa?

    Raul – A quadra chuvosa é caracterizada pela atuação de um sistema muito importante para o Norte e o Nordeste, que é a Zona de Convergência Intertropical (ZCI). É o sistema que traz chuvas de forma mais regular para o Estado. O vórtice é muito irregular. Tem anos em que ele traz boas chuvas, tem anos em que praticamente não traz.

    OP – O senhor consegue lembrar outra época em que o VCAN teve uma atuação importante em relação às chuvas?

    Raul – Em 2004, houve muita chuva no período de janeiro. Em fevereiro também tivemos boas chuvas, mas, principalmente, em janeiro, ao ponto de encher o reservatório do Castanhão, que tinha sido recém-construído. Mas, os meses seguintes a esses dois não foram bons meses de chuva, então é possível a gente ter esse período de agora bastante chuvoso, seguido de chuvas mais escassas.

    OP – O que impulsiona o quadro de estiagem
    no Ceará?

    Raul – Geograficamente, existem fatores naturais que originam um estado climático de semiaridez. É uma região que tem uma irregularidade muito grande na distribuição das chuvas, tanto ao longo do território como no tempo. Chuvas, às vezes, acontecem bem num período do ano e ruim no seguinte, e se concentram no primeiro semestre, principalmente entre fevereiro e maio, que a gente chama de ‘quadra chuvosa’. Aí tem a pré-estação que, em alguns anos, se mostra boa. Aparenta ser o caso deste ano.

    OP – A última seca prolongada no Ceará, que durou cinco anos, ocorreu de 1979 a 1983. Estamos, atualmente, seguindo para o mesmo quadro. O que é capaz de interromper esse ciclo?

    Raul – O ciclo geralmente não ultrapassa ou tende a não ultrapassar esse período. A própria variabilidade climática natural interrompe. Poucos casos chegam a ser tão extensos. É mais frequente de dois a três anos. Mas, às vezes, podem se estender a esses dois exemplos, de cinco anos seguidos de chuvas abaixo da média. Podemos ter, também, alguma influência do aquecimento global, que, possivelmente, perturba as condições naturais. Fenômenos como El Niños intensos contribuem. Quando eles chegam e se instalam no Oceano Pacífico, tendem a ampliar esse quadro grave de seca, como é o caso de agora. Esse El Niño que está atuando no momento é equivalente ao de 1997 e 1998, que provocou uma grande seca.

    OP – É uma tendência esse panorama de grandes secas intercaladas?

    Raul – Sim, e é mais frequente a gente ter anos com chuvas entre normal e abaixo da média, do que anos acima da média.

    OP – A sabedoria popular, na voz dos profetas da chuva, aposta em precipitações regulares este ano. Em que ponto ela converge com o conhecimento científico?

    Raul – O profeta da chuva percebe, pela análise da natureza, que os seres vivos estão reagindo às condições de tempo e, a partir disso, elabora uma previsão de longo prazo, que é climática. Mas, essa previsão climática pode não corresponder exatamente a um prolongamento daquela variação que ocorreu naquele momento em que ele fez a avaliação. Se acontecer, ele acha que acertou a previsão de clima. Se não, ele considera que errou. Mas, pode coincidir que essa variação a curto prazo se repita e se transforme em longo prazo. Aí é o ponto em que converge. A Funceme tenta antecipar o que pode acontecer num prazo maior, envolvendo três meses a frente. É um exercício muito difícil.

    OP – Geralmente, há uma descrença da população em torno das previsões da Funceme. Como desmistificar isso?

    Raul – A previsão oferece probabilidades e qualquer uma delas pode acontecer, mas, a gente indica a mais provável. São três que nós lançamos. Acontece que a população não consegue entender essa informação, que é padrão internacional de divulgação. Acha que é uma coisa determinística. Que, se a Funceme previu como maior probabilidade termos chuvas abaixo da média em certo período, acha que já previu seca. Mas, a mais provável é essa mesmo, até para alertar às pessoas com atividades que dependem das chuvas e ao próprio Governo a tomarem precauções, se prevenirem e não só reagirem a uma seca já instalada.

    OP – A Funceme, então, também se surpreende com as ocorrências de menor probabilidade, como o VCAN?

    Raul – Sim, porque esses vórtices são de difícil previsibilidade. A ciência não conseguiu chegar num nível de precisão grande para ter uma previsão confiável para esse período (de pré-estação chuvosa). De qualquer forma, nos é exigido dar alguma ideia do que possa acontecer. É um risco muito grande que a Funceme assume. A gente sofre críticas por isso. Por exemplo, a gente lançou a previsão de chuvas abaixo da média, aí no outro dia vem uma chuva muito intensa. As pessoas não compreendem, acham que essas chuvas do momento vão se prolongar até o restante da temporada. Apesar da crítica da população, que chega até a pedir para fechar o órgão, a gente fica feliz com a chegada
    dessas chuvas.

    Frase

    “A gente lançou a previsão de chuvas abaixo da média, aí no outro dia vem uma chuva muito intensa. As pessoas não compreendem, acham que essas chuvas do momento vão se prolongar até o restante da temporada”

    Raul Fritz, meteorologista da Funceme

    VIDEO

    Raul Fritz, o cientista da chuva

    IANA SOARES/O POVO

    Nascido em Natal, no Rio Grande do Norte, Raul Fritz, de 53 anos, é supervisor da unidade de Tempo e Clima da Fundação Cearense de Meteorologia e Recursos Hídricos (Funceme). Ele começou a trabalhar para a Funceme em 1988, ainda como estagiário, pouco após uma estiagem que se prolongou por cinco anos no Estado, entre 1979 e 1983.

    Efeitos bifásicos da ayahuasca (Plantando Consciência)

    30 de setembro de 2015

    Efeitos bifásicos da Ayahuasca

    Foi publicado hoje na revista científica PLOS ONE artigo com os resultados de nosso estudo neurocientífico sobre a ayahuasca. Fruto de pouco mais de quatro anos de intenso e dedicado trabalho, a pesquisa foi conduzida na UNIFESP com financiamento da FAPESP, com cooperações na USP, UFABC, Louisiana State University (EUA) e da University of Auckland (Nova Zelândia). Além da colaboração da União do Vegetal que nos forneceu Hoasca para fins de pesquisa, e de 20 bravos(as) psiconautas experientes no uso da bebida amazônica. Nossos(as) voluntários(as) se disponibilizaram a participar de um processo em um ambiente e com uma proposta que difere em muito dos usos tradicionais, e era bastante desafiadora. Beberam ayahuasca num laboratório universitário, sem canto nem palo santo, sem reza, dança ou fogueira, no meio da conturbada metrópole paulista. E tiveram que usar uma touca que gravava a atividade elétrica de seus cérebros continuamente num notebook próximo a elas. Sentadas em uma poltrona confortável, doaram pequenas quantidades de sangue a cada 25 minutos. Apesar de não ter a fundamental condução dos guias, curandeiros, mestres ou maestros, que fazem trabalhos tão importantes quanto a bebida em si, e de tomarem ayahuasca uma pessoa por vez, foram acompanhados com carinho e cuidado pela equipe científica, nunca sendo deixados sozinhos ou desamparados, e sempre com os baldinhos à disposição… Tudo isso em prol da colaboração dos saberes tradicionais com os saberes científicos e tecnológicos.Uma pesquisa desse tipo se justifica por várias razões, desde um entendimento mais profundo sobre nossa resposta fisiológica aos compostos químicos presentes na ayahuasca, que nos fornece dados cruciais sobre potenciais terapêuticos e segurança de uso; até informações mais sofisticadas sobre as relações entre cérebro e consciência, o chamado “hard-problem”. Com os resultados dessa jornada aprofundamos e expandimos o conhecimento sobre os efeitos dos componentes moleculares da bebida sagrada, sobre como nossos corpos recebem estas moléculas e que efeitos elas ajudam a desencadear, especialmente no cérebro. Ao minimizarmos as intervenções biomédicas somente ao estritamente necessário e ao adotarmos uma postura observacional, deixando e encorajando que os voluntários passassem a maior parte do tempo de olhos fechados em estado introspectivo, pudemos revelar uma imagem fascinante sobre os efeitos da ayahuasca no cérebro. Este efeito ocorre em duas fases qualitativamente distintas e este perfil bifásico ajuda a explicar contradições de estudos semelhantes feitos anteriormente por outras equipes. Com isso abrimos mais portas para fascinantes investigações futuras sobre os diversos estados de consciência que podem ser alcançados com a bebida amazônica.

    Cerca de uma hora após a ingestão da ayahuasca, ocorreram diminuições das ondas alfa (8 a 12 ciclos por segundo), especialmente no córtex temporo-parietal, com uma certa tendência de lateralização para o hemisfério esquerdo. A segunda fase ocorre cerca de uma hora depois (ou seja, cerca de duas horas após a ingestão) e enquanto as ondas alfa foram retornando a um padrão parecido com o que estava antes da ingestão da ayahuasca, os ritmos gama, de frequências muito altas (30 a 100 ciclos por segundo), se intensificaram por quase todo o córtex cerebral, incluindo o córtex frontal. Estas oscilações elétricas em distintas frequências, que ocorrem perpetuamente e simultaneamente em todo o cérebro, são resultado da complexa interação da atividade de bilhões de células cerebrais. E estão relacionadas com todas as funções do cérebro, inclusive os aspectos psicológicos e os estados de consciência. Por exemplo, durante o sono profundo predomina no córtex cerebral uma frequência lenta, de 1 a 4 ciclos por segundo, chamada delta. Enquanto durante a maioria dos sonhos, predomina a frequência teta (4 a 8 ciclos por segundo). Ao caracterizar as principais mudanças nestas frequências de oscilações neurais avançamos na criação de um mapa neurocientífico sobre o estado de consciência desencadeado pela ingestão de ayahuasca.

    Há variadas nuances de interpretação para estes dados (e muitos estudos posteriores que podem ser feitos de acordo com cada interpretação, para testas hipóteses específicas). Mas a minha favorita e que discutimos no artigo é de que o ritmo alfa é resultado de atividades inibitórias no cérebro, e o ritmo gama representa atividade neural crucial para a consciência. Quando fechamos os olhos e temos a sensacao de um campo visual escuro, sem imagens, o ritmo alfa se fortalece nas regiões do cérebro que recebem estímulos vindos dos olhos. Ou seja, quando estamos de olhos fechados não apenas a informação que chega dos olhos está ausente, mas as áreas visuais são inibidas por “centros superiores” do córtex, capazes de modular a atividade de áreas sensoriais. E nós temos a experiência subjetiva de um mundo escuro e de ausência de visão. No caso da ayahuasca, encontramos um enfraquecimento dessa inibição em áreas multisensoriais. Ou seja, regiões que estão envolvidas não só com visão, mas com audição, tato, paladar, olfato e também com sensações corpóreas das mais diversas. Faz sentido portanto que esta diminuição de alfa esteja relacionada com o efeito tão comum de experiência de mais sensações e mais estímulos durante o efeito da ayahuasca quando comparado com o estado ordinário de consciência, incluindo as famosas visões de olhos fechados. Já o acelerado gama está relacionado com o que se chama na neurociência de integração. Enquanto áreas diversas do cérebro estão relacionadas a percepções subjetivas distintas, como os cinco sentidos mencionados acima, nossa experiência consciente é unificada. Essa unificação de atividades neurais em áreas anatomicamente distintas ocorre nas oscilações rápidas na frequência gama, que permitem ao cérebro temporariamente juntar as peças de um complexo quebra cabeças de atividade neural. Esse aumento de gama pode ajudar a explicar porque durante a ayahuasca a percepção de sons e imagens, por exemplo, parece se fundir e criar relações peculiares, não perceptíveis durante a consciência ordinária, quando o cérebro tende a organizar a atividade neural relacionada aos cinco sentidos de maneira parcialmente independente. Essa função do gama em unificar ou integrar informações no cérebro é conhecida de longa data, pelo menos desde a obra pioneira do cientista Chileno Francisco Varela. E foi observada em dois indíviduos após tomarem ayahuasca em trabalho do antropólogo Luis Eduardo Luna e colaboradores há uma década. Ao confirmarmos os dados de Luna e colaboradores com nova e mais rigorosa metodologia, com mais pessoas e ao detectarmos a combinação destes efeitos com as reduções em alfa, abrimos portas importantíssimas no entendimento não só dos estados não-ordinários de consciência, mas da teoria neurocientifica sobre a consciência como um todo. Um exemplo é uma teoria proposta recentemente sobre a ação dos psicodélicos que sugere que uma das características principais do cérebro durante o efeito de psicodélicos sejam intensificações do gama. Para Andrew Gallimore, do Japão, que se baseia na influente teoria da informacao integrada, ou IIT (integrated information theory), a mais promissora teoria neurocientífica sobre a consciência, a expansão da consciência com psicodélicos é mesmo possível dentro de uma perspectiva neurocientífica, e provavelmente depende do ritmo gama. Esta expansão da consciência inclui a percepção subjetiva de mais conteúdo, de maior intensidade, incluindo fusões entre os sentidos e possivelmente a experiência subjetiva de intensidades e qualidades não perceptíveis durante a consciência ordinária, como cores mais vívidas e brilhantes e estados emocionais mais intensos do que jamais experienciados fora do estado psicodélico. O gama também tem papel fundamental na teoria da consciência proposta pelo matemático Sir Roger Penrose e pelo anestesiologista Stuart Hameroff. Segundo a teoria deles, oscilações na faixa de 40 ciclos por segundo seriam importantes ao permitir reverberações menores e muito mais aceleradas nos microtúbulos, uma rede de fibras e filamentos que percorre todas as células do nosso corpo – e do cérebro.

    Ademais de caracterizar as oscilações e regiões corticais mais importantes no processo neural relacionado à modificação da consciência durante a ayahuasca, fizemos coletas periódicas de sangue para quantificar os princípios ativos da ayahuasca e seus metabólitos. E encontramos que durante a primeira fase a concentração da DMT e da harmina estavam próximas do máximo, sendo que na segunda fase acontecem os picos de harmalina e tetrahidroharmina. Com uma análise estatística sofisticada e inédita, desenvolvida especialmente para este estudo, demonstramos que este efeito bifásico no cérebro esta relacionado à concentração sanguínea de vários componentes do chá. Isto expande a visão científica predominante que foca apenas na famosa DMT. De acordo com este modelo, o papel do cipó é apenas de inibir a digestão da DMT. Mas “ayahuasca” é um dos muitos nomes não só da bebida, mas do cipó jagube ou mariri, catalogado nos anais científicos como Banisteriopsis caapi. Isto revela que, para os povos tradicionais, é o cipó a planta mais importante. E de fato há preparações de ayahuasca feitas somente com o cipó, sem qualquer outra planta. Mas na farmacologia esse quadro foi invertido, dando-se ênfase na psicoatividade da DMT apenas, que não vem do cipó, mas de outras plantas que frequentemente são adicionadas no preparo da bebida, como a rainha no Brasil e Peru (Psychotria viridis) ou a chagropanga na Colômbia (Dyplopteris cabrerana). Mas nossa análise com 10 moléculas (DMT, NMT e DMT-NO; Harmina e harmol; Harmalina e harmalol; THH e THH-OH e também o metabólito serotonérgico IAA) revelou associações importantes entre níveis plasmáticos de DMT, harmina, harmalina e tetraidroharmina, bem como alguns metabólitos como a DMT-NO, e os efeitos cerebrais em alfa e gama em momentos distintos da experiência. Revelamos portanto que a psicoatividade da ayahuasca não pode ser totalmente explicada apenas pelas concentrações de DMT, dando um passo importante para reaproximar o saber científico dos saberes tradicionais.

    novo infografico pt_br FB

    Descobrimos ainda que a concentração de harmalina (e apenas de harmalina) está correlacionada com o momento em que os voluntários(as) vomitaram. Ou seja, a harmalina desempenha um papel fundamental tanto no cérebro, estando relacionada a intensificação das ondas gama, mas também nos efeitos periféricos da ayahuasca, como o vômito. Isso reforça a idéia de que o vômito tem relações importantes com a experiência psicológica, sendo talvez mais apropriado chamá-lo de purga, termo que reforça a idéia de que ocorre uma associação entre físico e psicológico neste momento da experiência. Esses resultados sobre a harmalina também dão nova importância para as pesquisas pioneiras de Claudio Naranjo, terapeuta Chileno que foi um dos primeiros a estudar ayahuasca desde um ponto de vista médico-científico, nos anos 60. A proposta de Naranjo, de que a harmalina era o principal componente psicoativo da ayahuasca foi, entretanto, quase que totalmente esquecida em prol do foco na DMT a partir dos anos 80. Outro fator importante contra a proposta de Naranjo é que as concentrações de harmalina na ayahuasca são em geral abaixo das doses de harmalina que, sozinha, desencadeiam efeitos psicoativos nítidos, conforme relato subjetivo das pessoas que ingeriram harmalina nos estudos de Naranjo. Mas nunca foi testado o efeito da harmalina combinada com a harmina e a tetraidroharmina, como ocorre na ayahuasca. E então nossos resultados reforçam a idéia de que a harmalina também pode ter contribuições importantes no efeito psicoativo da ayahuasca quando em combinação com as outras beta-carbolinas vindas do cipó. Interessantemente, em quase todos os casos a purga ocorreu após a primeira fase, quando os níveis de DMT estão próximos do máximo que atingem no sangue. Como a elevação da concentração de harmalina no sangue é mais lenta que da DMT e da harmina, vomitar pouco interfere nos efeitos da primeira fase e nas concentrações destas duas moléculas, e ajuda a explicar porque mesmo quem vomita rápido pode ter experiências fortes e profundas. Mas vomitar potencialmente interfere nas concentrações de tetraidroharmina, que é a molécula cujas concentrações sobem mais lentamente, e pode permanecer em circulação por alguns dias, dependendo da capacidade de metabolização de cada indivíduo.

    Importante notar ainda que o perfil bifásico foi observado com ingestão de apenas um copo (mas com uma dose grande). Mas sabemos que nos usos rituais é muito frequente os participantes tomarem mais de uma dose, com intervalo de uma hora ou mais. É possível então que nestes casos ocorram variadas combinações de efeitos, como por exemplo a segunda fase de uma primeira dose (aumento de gama) coincidir com a primeira fase de uma segunda dose (diminuição de alfa). Isso potencialmente geraria estados cerebrais (e por correlação, estados de consciência) não observados na pesquisa com apenas uma dose. Isto ajuda a entender porque muitas pessoas relatam que a segunda dose é sempre uma “caixinha de surpresas”, e não apenas a intensificação ou prolongação dos efeitos da primeira toma. Ao depender do perfil metabólico de cada pessoa, do tamanho de cada dose, da proporção destas moléculas na bebida e do intervalo entre elas, pode-se atingir outros estados mesclados entre as duas fases observadas na pesquisa. Some-se a isto as influências ambientais, psicológicas, motivacionais e espirituais e temos uma prática de exploração da consciência que não cabe numa resposta simples e singular sobre qual “o efeito” da ayahuasca.

    Do ponto de vista neurocientífico, estas possíveis combinações são muito intrigantes, porque relações entre as frequências alfa e gama no córtex parietal e no frontal estão envolvidas em processos de reavaliação psicológica e emocional. Ou seja, quando fazemos certas formas de introspecção que resultam em ressignificação de eventos emocionais de nossas vidas, estas áreas do cérebro se comunicam através de oscilações elétricas nestas duas faixas de frequência. E estas mesmas frequências e áreas cerebrais estão envolvidas em processos criativos de resolução de problemas. Ou seja, através de nossa pesquisa, a neurociência começa a convergir com o saber ancestral ao reafirmar o potencial da ayahuasca em nutrir a criatividade e o autoconhecimento, facilitando formas de terapia focadas no potencial de cada indíviduo em crescer e se desenvolver de maneira consciente.

    Para saber mais, confira abaixo minha palestra na World Ayahuasca Confrence, em Ibiza ano passado (disponível com legendas em português e inglês). Ou ainda a mais antiga “Ayahuasca e as ondas cerebrais“, realizada no Brasil no início deste projeto. Ou se você quer mesmo mergulhar fundo, acesse gratuitamente o artigo científico na íntegra.

    Referência: Schenberg EE, Alexandre JFM, Filev R, Cravo AM, Sato JR, Muthukumaraswamy SD, et al. (2015) Acute Biphasic Effects of Ayahuasca. PLoS ONE 10(9): e0137202. doi:10.1371/journal.pone.0137202

     

    Is human behavior controlled by our genes? Richard Levins reviews ‘The Social Conquest of Earth’ (Climate & Capitalism)

    “Failing to take class division into account is not simply a political bias. It also distorts how we look at human evolution as intrinsically bio-social and human biology as socialized biology.”

     

    August 1, 2012

    Edward O. Wilson. The Social Conquest of Earth. Liverwright Publishing, New York, 2012

    reviewed by Richard Levins

    In the 1970s, Edward O. Wilson, Richard Lewontin, Stephen Jay Gould and I were colleagues in Harvard’s new department of Organismic and Evolutionary Biology. In spite of our later divergences, I retain grateful memories of working in the field with Ed, turning over rocks, sharing beer, breaking open twigs, putting out bait (canned tuna fish) to attract the ants we were studying..

    We were part of a group that hoped to jointly write and publish articles offering a common view of evolutionary science, but that collaboration was brief, largely because Lewontin and I strongly disagreed with Wilson’s Sociobiology.

    Reductionism and Sociobiology

    Although Wilson fought hard against the reduction of biology to the study of molecules, his holism stopped there. He came to promote the reduction of social and behavioral science to biology. In his view:

    “Our lives are restrained by two laws of biology: all of life’s entities and processes are obedient to the laws of physics and chemistry; and all of life’s entities and processes have arisen through evolution and natural selection.” [Social Conquest, p. 287]

    This is true as far as it goes but fails in two important ways.

    First, it ignores the reciprocal feedback between levels. The biological creates the ensemble of molecules in the cell; the social alters the spectrum of molecules in the biosphere; biological activity creates the biosphere itself and the conditions for the maintenance of life.

    Second, it doesn’t consider how the social level alters the biological: our biology is a socialized biology.

    Higher (more inclusive) levels are indeed constrained by the laws at lower levels of organization, but they also have their own laws that emerge from the lower level yet are distinct and that also determine which chemical and physical entities are present in the organisms. In new contexts they operate differently.

    Thus for example we, like a few other animals including bears, are omnivores. For some purposes such as comparing digestive systems that’s an adequate label. But we are omnivores of a special kind: we not only acquire food by predation, but we also producefood, turning the inedible into edible, the transitory into stored food. This has had such a profound effect on our lives that it is also legitimate to refer to us as something new, productivores.

    The productivore mode of sustenance opens a whole new domain: the mode of production. Human societies have experienced different modes of production and ways to organize reproduction, each with its own dynamics, relations with the rest of nature, division into classes, and processes which restore or change it when it is disturbed.

    The division of society into classes changes how natural selection works, who is exposed to what diseases, who eats and who doesn’t eat, who does the dishes, who must do physical work, how long we can expect to live. It is no longer possible to prescribe the direction of natural selection for the whole species.

    So failing to take class division into account is not simply a political bias. It also distorts how we look at human evolution as intrinsically bio-social and human biology as socialized biology.

    The opposite of the genetic determinism of sociobiology is not “the blank slate” view that claims that our biological natures were irrelevant to behavior and society. The question is, what about our animal heritage was relevant?

    We all agree that we are animals; that as animals we need food; that we are terrestrial rather than aquatic animals; that we are mammals and therefore need a lot of food to support our high metabolic rates that maintain body temperature; that for part of our history we lived in trees and acquired characteristics adapted to that habitat, but came down from the trees with a dependence on vision, hands with padded fingers, and so on. We have big brains, with regions that have different major functions such as emotions, color vision, and language.

    But beyond these general capacities, there is widespread disagreement about which behaviors or attitudes are expressions of brain structure. The amygdala is a locus of emotion, but does it tell us what to be angry or rejoice about? It is an ancient part of our brains, but has it not evolved in response to what the rest of the brain is doing? There is higher intellectual function in the cortex, but does it tell us what to think about?

    Every part of an organism is the environment for the rest of the organism, setting the context for natural selection. In contrast to this fluid viewpoint, phrases such as “hard-wired” have become part of the pop vocabulary, applied promiscuously to all sorts of behaviors.

    In a deeper sense, asking if something is heritable is a nonsense question. Heritability is always a comparison: how much of the difference between humans and chimps is heritable? What about the differences between ourselves and Neanderthals? Between nomads and farmers?

    Social Conquest of Earth

    The Social Conquest of Earth, Ed Wilson’s latest book, continues his interest in the “eusocial” animals – ants, bees and others that live in groups with overlapping generations and a division of labor that includes altruistic behavior. As the title shows. he also continues to use the terminology of conquest and domination, so that social animals “conquer” the earth, their abundance makes them “dominate.”

    The problem that Wilson poses in this book is first, why did eusociality arise at all, and second, why is it so rare?

    Wilson is at his best when discussing the more remote past, the origins of social behavior 220 million years ago for termites, 150 million years for ants, 70-80 million years for humble bees and honey bees.

    But as he gets closer to humanity the reductionist biases that informed Sociobiology reassert themselves. Once again Wilson argues that brain architecture determines what people do socially – that war, aggression, morality, honor and hierarchy are part of “human nature.”

    Rejecting kin selection

    A major change, and one of the most satisfying parts of the book, is his rejection of kin selection as a motive force of social evolution, a theory he once defended strongly.

    Kin selection assumed that natural selection acts on genes. A gene will be favored if it results in enhancing its own survival and reproduction, but it is not enough to look at the survival of the individual. If my brother and I each have 2 offspring, a shared gene would be doubled in the next generation. But if my brother sacrifices himself so that I might leave 5 offspring while he leaves none, our shared gene will increase 250%.

    Therefore, argued the promoters of this theory, the fitness that natural selection increases has to be calculated over a whole set of kin, weighted by the closeness of their relationship. Mathematical formulations were developed to support this theory. Wilson found it attractive because it appeared to support sociobiology.

    However, plausible inference is not enough to prove a theory. Empirical studies comparing different species or traits did not confirm the kin selection hypothesis, and a reexamination of its mathematical structure (such as the fuzziness of defining relatedness) showed that it could not account for the observed natural world. Wilson devotes a lot of space to refuting kin selection because of his previous support of it: it is a great example of scientific self-correction.

    Does group selection explain social behaviour?

    Wilson has now adopted another model in which the evolution of sociality is the result of opposing processes of ordinary individual selection acting within populations, and group selection acting between populations. He invokes this model account to for religion, morality, honor and other human behaviors.

    He argues that individual selection promotes “selfishness” (that is, behavior that enhances individual survival) while group selection favors cooperative and “altruistic” behavior. The two forms of selection oppose each other, and that results in our mixed behaviors.

    “We are an evolutionary chimera living on intelligence steered by the demands of animal instinct. This is the reason we are mindlessly dismantling the biosphere and with it, our own prospects for permanent existence.” [p.13]

    But this simplistic reduction of environmental destruction to biology will not stand. Contrary to Wilson, the destruction of the biosphere is not “mindless.” It is the outcome of interactions in the noxious triad of greed, poverty, and ignorance, all produced by a socio-economic system that must expand to survive.

    For Wilson, as for many environmentalists, the driver of ecological destruction is some generic “we,” who are all in the same boat. But since the emergence of classes after the adoption of agriculture some 8-10,000 years ago it is no longer appropriate to talk of a collective “we.”

    The owners of the economy are willing to use up resources, pollute the environment, debase the quality of products, and undermine the health of the producers out of a kind of perverse economic rationality. They support their policies with theories such as climate change denial or doubting the toxicity of pesticides, and buttress it with legislation and court decisions.

    Evolution and religion

    The beginning and end of the book, a spirited critique of religion as possibly explaining human nature, is more straightforwardly materialist than the view supported by Stephen J. Gould, who argued that religion and science are separate magisteria that play equal roles in human wellbeing.

    But Wilson’s use of evidence is selective.

    For example, he argues that religion demands absolute belief from its followers – but this is true only of Christianity and Islam. Judaism lets you think what you want as long as you practice the prescribed rituals, Buddhism doesn’t care about deities or the afterlife.

    Similarly he argues that creation myths are a product of evolution:

    “Since paleolithic times … each tribe invented its own creation myths… No tribe could long survive without a creation myth… The creation myth is a Darwinian device for survival.” [p. 8]

    But the ancient Israelites did not have an origin myth when they emerged as a people in the hills of Judea around 1250 B.C.E. Although it appears at the beginning of the Bible, the Israelites did not adapt the Book of Genesis from Babylonian mythology until four centuries after Deuteronomy was written, after they had survived 200 years as a tribal confederation, two kingdoms and the Assyrian and Babylonian conquests— by then the writing of scripture was a political act, not a “Darwinian device for survival.”

    Biologizing war

    In support of his biologizing of “traits,” Wilson reviews recent research that appears to a show a biological basis for the way people see and interpret color, for the incest taboo, and for the startle response – and then asserts that inherited traits include war, hierarchy, honor and such. Ignoring the role of social class, he views these as universal traits of human nature.

    Consider war. Wilson claims that war reflects genes for group selection. “A soldier going into battle will benefit his country but he runs a higher risk of death than one who does not.” [p. 165]

    But soldiers don’t initiate conflict. We know in our own times that those who decide to make war are not those who fight the wars – but, perhaps unfortunately, sterilizing the general staff of the Pentagon and of the CIA would not produce a more peaceful America.

    The evidence against war as a biological imperative is strong. Willingness to fight is situational.

    Group selection can’t explain why soldiers have to be coerced into fighting, why desertion is a major problem for generals and is severely punished, or why resistance to recruitment is a major problem of armies. In the present militarist USA, soldiers are driven to join up through unemployment and the promises of benefits such as learning skills and getting an education and self-improvement. No recruitment posters offer the opportunity to kill people as an inducement for signing up.

    The high rates of surrender and desertion of Italian soldiers in World War II did not reflect any innate cowardice among Italians but a lack of fascist conviction. The very rarity of surrender by Japanese soldiers in the same war was not a testimony to greater bravery on the part of the Japanese but of the inculcated combination of nationalism and religion.

    As the American people turned against the Vietnam war, increased desertions and the killing of officers by the soldiers reflected their rejection of the war.

    The terrifying assaults of the Vikings during the middle ages bear no resemblance to the mellow Scandinavian culture of today, too short a time for natural selection to transform national character.

    The attempt to make war an inherited trait favored by natural selection reflects the sexism that has been endemic in sociobiology. It assumes that local groups differed in their propensity for aggression and prowess in war. The victorious men carry off the women of the conquered settlements and incorporate them into their own communities. Therefore the new generation has been selected for greater military success among the men. But the women, coming from a defeated, weaker group, would bring with them their genes for lack of prowess, a selection for military weakness! Such a selection process would be self-negating.

    Ethnocentrism

    Wilson also considers ethnocentrism to be an inherited trait: group selection leads people to favor members of their own group and reject outsiders.

    The problem is that the lines between groups vary under different circumstances. For example, in Spanish America, laws governing marriage included a large number of graded racial categories, while in North America there were usually just two. What’s more, the category definitions are far from permanent: at one time, the Irish were regarded as Black, and the whiteness of Jews was questioned.

    Adoption, immigration, mergers of clans also confound any possible genetic basis for exclusion.

    Hierarchy

    Wilson draws on the work of Herbert Simon to argue that hierarchy is a result of human nature: there will always be rulers and ruled. His argument fails to distinguish between hierarchy and leadership.

    There are other forms of organization possible besides hierarchy and chaos, including democratic control by the workers who elect the operational leadership. In some labor unions, leaders’ salaries are pegged to the median wage of the members. In University departments the chairmanship is often a rotating task that nobody really wants. When Argentine factory owners closed their plants during the recession, workers in fact seized control and ran them profitably despite police sieges.

    Darwinian behavior?

    Wilson argues that “social traits” evolved through Darwinian natural selection. Genes that promoted behaviors that helped the individual or group to survive were passed on; genes that weakened the individual or group were not. The tension between individual and group selection decided which traits would be part of our human nature.

    But a plausible claim that a trait might be good for people is not enough to explain its origin and survival. A gene may become fixed in a population even if it is harmful, just by the random genetic changes that we know occur. Or a gene may be harmful but be dragged along by an advantageous gene close to it on the same chromosome.

    Selection may act in different directions in different subpopulations, or in different habitats, or in differing environmental. Or the adaptive value of a gene may change with its prevalence or the distribution of ages in the population, itself a consequence of the environment and population heterogeneity.

    For instance, Afro-Americans have a higher death rate from cancer than Euro-Americans. In part this reflects the carcinogenic environments they have been subjected to, but there is also a genetic factor. It is the combination of living conditions and genetics that causes higher mortality rates.

    * * *

    Obviously I am not arguing that evolution doesn’t happen. The point is that we need a much better argument than just a claim that some genotype might be beneficial. And we need a much more rigorous understanding of the differences and linkages between the biological and social components of humanity’s nature. Just calling some social behavior a “trait” does not make it heritable.

    In a book that attempts such a wide-ranging panorama of human evolution, there are bound to be errors. But the errors in The Social Conquest of Earth form a pattern: they reduce social issues to biology, and they insist on our evolutionary continuity with other animals while ignoring the radical discontinuity that made us productivores and divided us into classes.

    Empathy more common in animals than thought (Science Daily)

    Date: January 21, 2016

    Source: American Association for the Advancement of Science

    Summary: A new study reveals that prairie voles console loved ones who are feeling stressed — and it appears that the infamous ‘love hormone,’ oxytocin, is the underlying mechanism.


    Prairie voles consoling. This material relates to a paper that appeared in the Jan. 22, 2016 issue of Science, published by AAAS. The paper, by James Burkett at Emory University in Atlanta, GA, and colleagues was titled, “Oxytocin-dependent consolation behavior in rodents.” Credit: Zack Johnson

    A new study reveals that prairie voles console loved ones who are feeling stressed — and it appears that the infamous “love hormone,” oxytocin, is the underlying mechanism. Until now, consolation behavior has only been documented in a few nonhuman species with high levels of sociality and cognition, such as elephants, dolphins and dogs.

    Prairie voles are particularly social rodents, causing them to be the focus of many studies. This led James Burkett and colleagues to explore their potential for empathy-motivated behaviors.

    The researchers created an experiment where relatives and known individuals were temporarily isolated from each other, while one was exposed to mild shocks. Upon reunion, the non-stressed prairie voles proceeded to lick the stressed voles sooner and for longer durations, compared to a control scenario where individuals were separated but neither was exposed to a stressor.

    Measurements of hormone levels revealed that the family members and friends were distressed when they could not comfort their loved one.

    The fact that consoling behavior occurred only between those who were familiar with each other — including non-kin members — but not strangers, demonstrates that the behavior is not simply a reaction to aversive cues, the authors note.

    Since the oxytocin receptor is associated with empathy in humans, Burkett et al. blocked this neurotransmitter in prairie voles in a series of similar consolation experiments. Blocking oxytocin did not cause family members and friends to alter their self-grooming behavior, yet they did cease consoling each other.

    These findings provide new insights into the mechanisms of empathy and the evolution of complex empathy-motivated behaviors.


    Journal Reference:

    1. J. P. Burkett, E. Andari, Z. V. Johnson, D. C. Curry, F. B. M. de Waal, L. J. Young. Oxytocin-dependent consolation behavior in rodentsScience, 2016; 351 (6271): 375 DOI: 10.1126/science.aac4785

    Cells talk to their neighbors before making a move (Science Daily)

    Comparing notes boosts cells sensing accuracy

    Date: January 21, 2016

    Source: Emory Health Sciences

    Summary: To decide whether and where to move in the body, cells must read chemical signals in their environment. Individual cells do not act alone during this process, two new studies on mouse mammary tissue show. Instead, the cells make decisions collectively after exchanging information about the chemical messages they are receiving.


    Like the telephone game — where a line of people whisper a message to the person next to them — an original message starts to become distorted as it travels down the line between cells, report scientists. (Stock image) Credit: © sakkmesterke / Fotolia

    To decide whether and where to move in the body, cells must read chemical signals in their environment. Individual cells do not act alone during this process, two new studies on mouse mammary tissue show. Instead, the cells make decisions collectively after exchanging information about the chemical messages they are receiving.

    “Cells talk to nearby cells and compare notes before they make a move,” says Ilya Nemenman, a theoretical biophysicist at Emory University and a co-author of both studies, published by the Proceedings of the National Academy of Sciences (PNAS). The co-authors also include scientists from Johns Hopkins, Yale and Purdue.

    The researchers discovered that the cell communication process works similarly to a message relay in the telephone game. “Each cell only talks to its neighbor,” Nemenman explains. “A cell in position one only talks to a cell in position two. So position one needs to communicate with position two in order to get information from the cell in position three.”

    And like the telephone game — where a line of people whisper a message to the person next to them — the original message starts to become distorted as it travels down the line.

    The researchers found that, for the cells in their experiments, the message begins to get garbled after passing through about four cells, by a factor of about three.

    “We built a mathematical model for this linear relay of cellular information and derived a formula for its best possible accuracy,” Nemenman says. “Directed cell migration is important in processes from cancer to the development of organs and tissues. Other researchers can apply our model beyond the mouse mammary gland and analyze similar phenomena in a wide variety of healthy and diseased systems.”

    Since at least the 1970s, and pivotal work by Howard Berg and Ed Purcell, scientists have been trying to understand in detail how cells decide to take an action based on chemical cues.

    Every cell in a body has the same genome but they can do different things and go in different directions because they measure different chemical signals in their environment. Those chemical signals are made up of molecules that randomly move around.

    “Cells can sense not just the precise concentration of a chemical signal, but concentration differences,” Nemenman says. “That’s very important because in order to know which direction to move, a cell has to know in which direction the concentration of the chemical signal is higher. Cells sense this gradient and it gives them a reference for the direction in which to move and grow.”

    Berg and Purcell understood the best possible margin of error — the detection limit — for such gradient sensing. During the subsequent 30 years, researchers have established that many different cells, in many different organisms, work at this detection limit. Living cells can sense chemicals better than any humanmade device.

    It was not known, however, that cells can sense signals and make movement decisions collectively.

    “Previous research has typically focused on cultured cells,” Nemenman says. “And when you culture cells, the first thing to go away is cell-to-cell interaction. The cells are no longer a functioning tissue, but a culture of individual cells, so it’s difficult to study many collective effects.”

    The first PNAS paper drew from three-dimensional micro-fluidic techniques from the Yale University lab of Andre Levchenko, a biomedical engineer who studies how cells navigate; research on mouse mammary tissue at the Johns Hopkins lab of Andrew Ewald, a biologist focused on the cellular mechanisms of cancer; and the quantification methods of Nemenman, who studies the physics of biological systems, and Andrew Mugler, a former post-doctoral fellow in Nemenman’s lab at Emory who now has his own research group at Purdue.

    The 3D micro fluidics allowed the researchers to experiment with functional organoids, or clumps of cells. The method does not disrupt the interaction of the cells.

    The results showed that epidermal growth factor, or EGF, is the signal that these cells track, and that the cells were not making decisions about which way to move as individuals, but collectively.

    “The clumps of cells, working collectively, could detect insanely small differences in concentration gradients — such as 498 molecules of EGF versus 502 molecules — on different sides of one cell,” Nemenman says. “That accuracy is way better than the best possible margin of error determined by Berg and Purcell of about plus or minus 20. Even at these small concentration gradients, the organoids start reshaping and moving toward the higher concentration. These cells are not just optimal gradient detectors. They seem super optimal, defying the laws of nature.”

    Collective cell communication boosts their detection accuracy, turning a line of about four cells into a single, super-accurate measurement unit.

    In the second PNAS paper, Nemenman, Mugler and Levchenko looked at the limits to the cells’ precision of collective gradient sensing not just spatially, but over time.

    “We hypothesized that if the cells kept on communicating with one another over hours or days, and kept on accumulating information, that might expand the accuracy further than four cells across,” Nemenman says. “Surprisingly, however, this was not the case. We found that there is always a limit of how far information can travel without being garbled in these cellular systems.”

    Together, the two papers offer a detailed model for collective cellular gradient sensing, verified by experiments in mouse mammary organoids. The collective model expands the classic Berg-Purcell results for the best accuracy of an individual cell, which stood for almost forty years. The new formula quantifies the additional advantages and limitations on the accuracy coming from the cells working collectively.

    “Our findings are not just intellectually important. They provide new ways to study many normal and abnormal developmental processes,” Nemenman says.


    Journal References:

    1. David Ellison, Andrew Mugler, Matthew D. Brennan, Sung Hoon Lee, Robert J. Huebner, Eliah R. Shamir, Laura A. Woo, Joseph Kim, Patrick Amar, Ilya Nemenman, Andrew J. Ewald, and Andre Levchenko. Cell–cell communication enhances the capacity of cell ensembles to sense shallow gradients during morphogenesisPNAS, January 2016 DOI: 10.1073/pnas.1516503113
    2. Andrew Mugler, Andre Levchenko, and Ilya Nemenman. Limits to the precision of gradient sensing with spatial communication and temporal integrationPNAS, January 2016 DOI: 10.1073/pnas.1509597112

    Impact of human activity on local climate mapped (Science Daily)

    Date: January 20, 2016

    Source: Concordia University

    Summary: A new study pinpoints the temperature increases caused by carbon dioxide emissions in different regions around the world.


    This is a map of climate change. Credit: Nature Climate Change

    Earth’s temperature has increased by 1°C over the past century, and most of this warming has been caused by carbon dioxide emissions. But what does that mean locally?

    A new study published in Nature Climate Change pinpoints the temperature increases caused by CO2 emissions in different regions around the world.

    Using simulation results from 12 global climate models, Damon Matthews, a professor in Concordia’s Department of Geography, Planning and Environment, along with post-doctoral researcher Martin Leduc, produced a map that shows how the climate changes in response to cumulative carbon emissions around the world.

    They found that temperature increases in most parts of the world respond linearly to cumulative emissions.

    “This provides a simple and powerful link between total global emissions of carbon dioxide and local climate warming,” says Matthews. “This approach can be used to show how much human emissions are to blame for local changes.”

    Leduc and Matthews, along with co-author Ramon de Elia from Ouranos, a Montreal-based consortium on regional climatology, analyzed the results of simulations in which CO2 emissions caused the concentration of CO2 in the atmosphere to increase by 1 per cent each year until it reached four times the levels recorded prior to the Industrial Revolution.

    Globally, the researchers saw an average temperature increase of 1.7 ±0.4°C per trillion tonnes of carbon in CO2 emissions (TtC), which is consistent with reports from the Intergovernmental Panel on Climate Change.

    But the scientists went beyond these globally averaged temperature rises, to calculate climate change at a local scale.

    At a glance, here are the average increases per trillion tonnes of carbon that we emit, separated geographically:

    • Western North America 2.4 ± 0.6°C
    • Central North America 2.3 ± 0.4°C
    • Eastern North America 2.4 ± 0.5°C
    • Alaska 3.6 ± 1.4°C
    • Greenland and Northern Canada 3.1 ± 0.9°C
    • North Asia 3.1 ± 0.9°C
    • Southeast Asia 1.5 ± 0.3°C
    • Central America 1.8 ± 0.4°C
    • Eastern Africa 1.9 ± 0.4°C

    “As these numbers show, equatorial regions warm the slowest, while the Arctic warms the fastest. Of course, this is what we’ve already seen happen — rapid changes in the Arctic are outpacing the rest of the planet,” says Matthews.

    There are also marked differences between land and ocean, with the temperature increase for the oceans averaging 1.4 ± 0.3°C TtC, compared to 2.2 ± 0.5°C for land areas.

    “To date, humans have emitted almost 600 billion tonnes of carbon,” says Matthews. “This means that land areas on average have already warmed by 1.3°C because of these emissions. At current emission rates, we will have emitted enough CO¬2 to warm land areas by 2°C within 3 decades.”


    Journal Reference:

    1. Martin Leduc, H. Damon Matthews, Ramón de Elía. Regional estimates of the transient climate response to cumulative CO2 emissionsNature Climate Change, 2016; DOI: 10.1038/nclimate2913

    Social media technology, rather than anonymity, is the problem (Science Daily)

    Date: January 20, 2016

    Source: University of Kent

    Summary: Problems of anti-social behavior, privacy, and free speech on social media are not caused by anonymity but instead result from the way technology changes our presence. That’s the startling conclusion of a new book by an expert on the information society and developing media.


    Problems of anti-social behaviour, privacy, and free speech on social media are not caused by anonymity but instead result from the way technology changes our presence.

    That’s the startling conclusion of a new book by Dr Vincent Miller, a sociologist at the University of Kent and an expert on the information society and developing media.

    In contending that the cause of issues such as online anti-social behaviour is the design/software of social media itself, Dr Miller suggests that social media architecture needs to be managed and planned in the same way as physical architecture. In the book, entitled The Crisis of Presence in Contemporary Culture: Ethics, Privacy and Speech in Mediated Social Life, Dr Miller examines the relationship between the freedom provided by the contemporary online world and the control, surveillance and censorship that operate in this environment.

    The book questions the origins and sincerity of moral panics about use — and abuse — in the contemporary online environment and offers an analysis of ethics, privacy and free speech in this setting.

    Investigating the ethical challenges that confront our increasingly digital culture, Dr Miller suggests a number of revisions to our ethical, legal and technological regimes to meet these challenges.

    These including changing what he describes as ‘dehumanizing’ social media software, expanding the notion of our ‘selves’ or ‘bodies’ to include our digital traces, and the re-introduction of ‘time’ into social media through the creation of ‘expiry dates’ on social media communications.

    Dr Miller is a Senior Lecturer in Sociology and Cultural Studies within the University’s School of Social Research, Sociology and Social Policy. The Crisis of Presence in Contemporary Culture: Ethics, Privacy and Speech in Mediated Social Life, is published by Sage.

    More information can be found at: https://uk.sagepub.com/en-gb/eur/the-crisis-of-presence-in-contemporary-culture/book244328

    The world’s greatest literature reveals multi fractals and cascades of consciousness (Science Daily)

    Date: January 21, 2016

    Source: The Henryk Niewodniczanski Institute of Nuclear Physics Polish Academy of Sciences

    Summary: James Joyce, Julio Cortazar, Marcel Proust, Henryk Sienkiewicz and Umberto Eco. Regardless of the language they were working in, some of the world’s greatest writers appear to be, in some respects, constructing fractals. Statistical analysis, however, revealed something even more intriguing. The composition of works from within a particular genre was characterized by the exceptional dynamics of a cascading (avalanche) narrative structure.


    Sequences of sentence lengths (as measured by number of words) in four literary works representative of various degree of cascading character. Credit: Source: IFJ PAN 

    James Joyce, Julio Cortazar, Marcel Proust, Henryk Sienkiewicz and Umberto Eco. Regardless of the language they were working in, some of the world’s greatest writers appear to be, in some respects, constructing fractals. Statistical analysis carried out at the Institute of Nuclear Physics of the Polish Academy of Sciences, however, revealed something even more intriguing. The composition of works from within a particular genre was characterized by the exceptional dynamics of a cascading (avalanche) narrative structure. This type of narrative turns out to be multifractal. That is, fractals of fractals are created.

    As far as many bookworms are concerned, advanced equations and graphs are the last things which would hold their interest, but there’s no escape from the math. Physicists from the Institute of Nuclear Physics of the Polish Academy of Sciences (IFJ PAN) in Cracow, Poland, performed a detailed statistical analysis of more than one hundred famous works of world literature, written in several languages and representing various literary genres. The books, tested for revealing correlations in variations of sentence length, proved to be governed by the dynamics of a cascade. This means that the construction of these books is in fact a fractal. In the case of several works their mathematical complexity proved to be exceptional, comparable to the structure of complex mathematical objects considered to be multifractal. Interestingly, in the analyzed pool of all the works, one genre turned out to be exceptionally multifractal in nature.

    Fractals are self-similar mathematical objects: when we begin to expand one fragment or another, what eventually emerges is a structure that resembles the original object. Typical fractals, especially those widely known as the Sierpinski triangle and the Mandelbrot set, are monofractals, meaning that the pace of enlargement in any place of a fractal is the same, linear: if they at some point were rescaled x number of times to reveal a structure similar to the original, the same increase in another place would also reveal a similar structure.

    Multifractals are more highly advanced mathematical structures: fractals of fractals. They arise from fractals ‘interwoven’ with each other in an appropriate manner and in appropriate proportions. Multifractals are not simply the sum of fractals and cannot be divided to return back to their original components, because the way they weave is fractal in nature. The result is that in order to see a structure similar to the original, different portions of a multifractal need to expand at different rates. A multifractal is therefore non-linear in nature.

    “Analyses on multiple scales, carried out using fractals, allow us to neatly grasp information on correlations among data at various levels of complexity of tested systems. As a result, they point to the hierarchical organization of phenomena and structures found in nature. So we can expect natural language, which represents a major evolutionary leap of the natural world, to show such correlations as well. Their existence in literary works, however, had not yet been convincingly documented. Meanwhile, it turned out that when you look at these works from the proper perspective, these correlations appear to be not only common, but in some works they take on a particularly sophisticated mathematical complexity,” says Prof. Stanislaw Drozdz (IFJ PAN, Cracow University of Technology).

    The study involved 113 literary works written in English, French, German, Italian, Polish, Russian and Spanish by such famous figures as Honore de Balzac, Arthur Conan Doyle, Julio Cortazar, Charles Dickens, Fyodor Dostoevsky, Alexandre Dumas, Umberto Eco, George Elliot, Victor Hugo, James Joyce, Thomas Mann, Marcel Proust, Wladyslaw Reymont, William Shakespeare, Henryk Sienkiewicz, JRR Tolkien, Leo Tolstoy and Virginia Woolf, among others. The selected works were no less than 5,000 sentences long, in order to ensure statistical reliability.

    To convert the texts to numerical sequences, sentence length was measured by the number of words (an alternative method of counting characters in the sentence turned out to have no major impact on the conclusions). The dependences were then searched for in the data — beginning with the simplest, i.e. linear. This is the posited question: if a sentence of a given length is x times longer than the sentences of different lengths, is the same aspect ratio preserved when looking at sentences respectively longer or shorter?

    “All of the examined works showed self-similarity in terms of organization of the lengths of sentences. Some were more expressive — here The Ambassadors by Henry James stood out — while others to far less of an extreme, as in the case of the French seventeenth-century romance Artamene ou le Grand Cyrus. However, correlations were evident, and therefore these texts were the construction of a fractal,” comments Dr. Pawel Oswiecimka (IFJ PAN), who also noted that fractality of a literary text will in practice never be as perfect as in the world of mathematics. It is possible to magnify mathematical fractals up to infinity, while the number of sentences in each book is finite, and at a certain stage of scaling there will always be a cut-off in the form of the end of the dataset.

    Things took a particularly interesting turn when physicists from the IFJ PAN began tracking non-linear dependence, which in most of the studied works was present to a slight or moderate degree. However, more than a dozen works revealed a very clear multifractal structure, and almost all of these proved to be representative of one genre, that of stream of consciousness. The only exception was the Bible, specifically the Old Testament, which has so far never been associated with this literary genre.

    “The absolute record in terms of multifractality turned out to be Finnegan’s Wake by James Joyce. The results of our analysis of this text are virtually indistinguishable from ideal, purely mathematical multifractals,” says Prof. Drozdz.

    The most multifractal works also included A Heartbreaking Work of Staggering Genius by Dave Eggers, Rayuela by Julio Cortazar, The US Trilogy by John Dos Passos, The Waves by Virginia Woolf, 2666 by Roberto Bolano, and Joyce’s Ulysses. At the same time a lot of works usually regarded as stream of consciousness turned out to show little correlation to multifractality, as it was hardly noticeable in books such as Atlas Shrugged by Ayn Rand and A la recherche du temps perdu by Marcel Proust.

    “It is not entirely clear whether stream of consciousness writing actually reveals the deeper qualities of our consciousness, or rather the imagination of the writers. It is hardly surprising that ascribing a work to a particular genre is, for whatever reason, sometimes subjective. We see, moreover, the possibility of an interesting application of our methodology: it may someday help in a more objective assignment of books to one genre or another,” notes Prof. Drozdz.

    Multifractal analyses of literary texts carried out by the IFJ PAN have been published in Information Sciences, a journal of computer science. The publication has undergone rigorous verification: given the interdisciplinary nature of the subject, editors immediately appointed up to six reviewers.


    Journal Reference:

    1. Stanisław Drożdż, Paweł Oświȩcimka, Andrzej Kulig, Jarosław Kwapień, Katarzyna Bazarnik, Iwona Grabska-Gradzińska, Jan Rybicki, Marek Stanuszek. Quantifying origin and character of long-range correlations in narrative textsInformation Sciences, 2016; 331: 32 DOI: 10.1016/j.ins.2015.10.023