Arquivo da tag: ciência

Provas #8.754.392.312 e #8.754.392.313 de que o Brasil Odeia Ciência (Meio Bit)

Postado Por  em 12 08 2016

365156

O brasileiro tem um problema sério com ciência. Ele acha que não precisamos dela. Temos basicamente zero programas sobre ciência na TV aberta, versus centenas de horas semanais de programas religiosos. Todo fim de ano canais abrem espaço para videntes e suas previsões para o ano novo, apenas para misteriosamente esquecer de todas as previsões erradas feitas pelas mesmas pessoas no ano anterior.

O Fantástico dedica 95% do tempo de uma reportagem sobre uma pirâmide idiota flutuando por causa de uns imãs, e 5% com cientistas explicando o truque óbvio. Nos comentários do MeioBit? Vários DEFENDENDO a matéria.

Um tempo atrás o Romário apresentou um Projeto de Lei para desburocratizar a importação de material científico como reagentes, que ficam tanto tempo na aduana que acabam estragando. Teve gente que escreveu cartas pra jornal reclamando, dizendo que não se deve investir em ciência, “e sim em saúde e educação”. No final o projeto foi arquivado.

Estatisticamente as chances de achar um astrólogo em um programa desses de entrevistas tipo Fátima são imensas, tanto quanto são ínfimas as de achar um cientista, sendo que o cientista sempre terá um pastor ou pai de santo como “contraponto”.

No Brasil a profissão de BENZEDEIRA é reconhecida pelo governo e tratada como “patrimônio cultural”. Sendo que a diferença entre benzedeiras e charlatões é que elas rezam antes de cobrar.  Agora, como cereja do bolo de bosta, temos isto:

ufeiro

Isso mesmo. Segundo o G1 o excelentíssimo sr deputado Edmir Chedid, do DEM apresentou uma moção propondo o reconhecimento da profissão de ufeiro, que iria garantir direitos aos ufeiros. Ele diz que

reconhecer a atividade científica que busca entender esses fenômenos, possibilitando financiamentos e linhas de pesquisa destinadas a esse fim junto à Universidades e outras instituições públicas ou privadas”.

Ancient-aliens-guy

Não é surpresa que o Google desconheça projetos do deputado relacionados com ciência de verdade. Ele pelo visto passa boa parte do tempo assistindo History Channel, mas os programas errados. E não, não estou exagerado. Ainda o Deputado:

“os contatos ufológicos acontecem desde os mais remotos tempos da humanidade”. “Há muito tempo atrás, acreditavam que os tais seres ou mesmo suas manifestações eram de origem quase divina, onde estes mesmo seres eram os nossos ‘salvadores’, nossos mediadores entre a ignorância e a sabedoria, para viver uma vida digna e feliz.”

Ele quer gastar dinheiro público com “pesquisadores” dessa bobagem que é basicamente uma seita, e preenche todos os requisitos de pseudociência: é quase 100% baseado em informação anedótica, não é reproduzível, não traz justificativas das hipóteses, etc, etc, etc.

Enquanto isso a FAPESP — Fundação de Amparo à Pesquisa do Estado de São Paulo teve reduzidos em R$ 17 milhões seus repasses para Mestrados e Doutorados, nos últimos 4 anos. Assim não sobra nem pros ufeiros, deputado. O que o senhor tem feito para ajudar a FAPESP? É, eu imaginava.

Acha que acabou? Temos aquele “fenômeno”, aquele grupo picareta chamado Fundação Cacique Cobra Coral, que diz “controlar o tempo” e abusam da credulidade dos retardados, incluindo aí a Prefeitura do Rio que por anos contratou os caras para garantir bom tempo no Réveillon. A taxa de acerto deles? Eu diria que no máximo 50%. A mesma da minha Pedra Controladora do Clima que tenho aqui na minha mesa.

Pior: como todo “místico” no Brasil essa gente é incensada pela mídia, até o Marcelo Tas, que eu julgava inteligente enche a bola dos caras.

Estamos em 2016, imagina-se que gente prometendo controlar o clima através de magia seria no mínimo alvo de risada, certo? Errado. ALGUÉM pagou pra esses espertos irem na Olimpíada de Londres, onde juraram que foram os responsáveis pela pouca chuva na Abertura, e tinham até credencial para um evento com a Dilma. E agora temos… isto:

cacique

Isso mesmo. O tempo está uma bosta, mas eles não falharam. Na matéria do Globo o porta-voz da Fundação diz que o foco deles era garantir o tempo bom na abertura da Olimpíada. Então tá.

Que o clima já estivesse previsto por ciência de verdade, é apenas um detalhe.

O mais triste disso tudo é que todo mundo que promove divulga e protege pseudociência e misticismo faz uso dos benefícios da ciência que diz não “acreditar”. Se ciência é tão ruim assim, incluindo a malvada “alopatia” que tal parar de vacinar suas crianças, rasgar o cartão do pediatra, jogar fora a Insulina e o Isordil e se tratar com chazinhos e homeopatia? GPS? Coisa do capeta, use uma varinha de radbomancia para se achar. Tem uma plantação? Contrate a Cacique Cobra Coral, e não acesse mais as previsões do INPE.

A reserva genética da Humanidade agradecerá.

‘Chemtrails’ not real, say atmospheric science experts (Science Daily)

Date:
August 12, 2016
Source:
Carnegie Institution for Science
Summary:
Well-understood physical and chemical processes can easily explain the alleged evidence of a secret, large-scale atmospheric spraying program, commonly referred to as ‘chemtrails’ or ‘covert geoengineering.’ A survey of the world’s leading atmospheric scientists categorically rejects the existence of a secret spraying program.

This is a condensation trail, or contrail, left behind an aircraft. Credit: Courtesy of Mick West

Well-understood physical and chemical processes can easily explain the alleged evidence of a secret, large-scale atmospheric spraying program, commonly referred to as “chemtrails” or “covert geoengineering,” concludes a new study from Carnegie Science, University of California Irvine, and the nonprofit organization Near Zero.

Some groups and individuals erroneously believe that the long-lasting condensation trails, or contrails, left behind aircraft are evidence of a secret large-scale spraying program. They call these imagined features “chemtrails.” Adherents of this conspiracy theory sometimes attribute this alleged spraying to the government and sometimes to industry.

The authors of this study, including Carnegie’s Ken Caldeira, conducted a survey of the world’s leading atmospheric scientists, who categorically rejected the existence of a secret spraying program. The team’s findings, published by Environmental Research Letters, are based on a survey of two groups of experts: atmospheric chemists who specialize in condensation trails and geochemists working on atmospheric deposition of dust and pollution.

The survey results show that 76 of the 77 participating scientists said they had not encountered evidence of a secret spraying program, and agree that the alleged evidence cited by the individuals who believe that atmospheric spraying is occurring could be explained through other factors, such as typical airplane contrail formation and poor data sampling.

The research team undertook their study in response to the large number of people who claim to believe in a secret spraying program. In a 2011 international survey, nearly 17 percent of respondents said they believed the existence of a secret large-scale atmospheric spraying program to be true or partly true. And in recent years a number of websites have arisen claiming to show evidence of widespread secret chemical spraying, which they say is linked to negative impacts on human health and the environment.

“We wanted to establish a scientific record on the topic of secret atmospheric spraying programs for the benefit of those in the public who haven’t made up their minds,” said Steven Davis of UC Irvine. “The experts we surveyed resoundingly rejected contrail photographs and test results as evidence of a large-scale atmospheric conspiracy.”

The research team says they do not hope to sway those already convinced that there is a secret spraying program — as these individuals usually only reject counter-evidence as further proof of their theories — but rather to establish a source of objective science that can inform public discourse.

“Despite the persistence of erroneous theories about atmospheric chemical spraying programs, until now there were no peer-reviewed academic studies showing that what some people think are ‘chemtrails’ are just ordinary contrails, which are becoming more abundant as air travel expands. Also, it is possible that climate change is causing contrails to persist for longer periods than they used to.” Caldeira said. “I felt it was important to definitively show what real experts in contrails and aerosols think. We might not convince die-hard believers that their beloved secret spraying program is just a paranoid fantasy, but hopefully their friends will accept the facts.”


Journal Reference:

  1. Christine Shearer, Mick West, Ken Caldeira, Steven J Davis. Quantifying expert consensus against the existence of a secret, large-scale atmospheric spraying programEnvironmental Research Letters, 2016; 11 (8): 084011 DOI: 10.1088/1748-9326/11/8/084011

Sequestro de CO2 (Pesquisa Fapesp)

Reunimos o que já publicamos sobre o processo de captura de dióxido de carbono da atmosfera, que se dá sobretudo em florestas e oceanos e ajuda a manter equilibrados os níveis de CO2 na atmosfera

Edição Online 13:10 27 de junho de 2016

 

mini Florestas secundárias podem contribuir para mitigar as mudanças climáticas
Se protegido adequadamente, esse tipo de vegetação neutralizaria as emissões da América Latina e do Caribe acumuladas entre 1993 e 2014 |Junho/2016|
MAR_Abre-Boletim Fundo do mar teve estoque de carbono
Circulação de água no Oceano Atlântico pode explicar baixos níveis de CO2 atmosférico no Último Máximo Glacial |Junho/2016|
Árvores da Amazônia geram novas folhas mesmo durante a seca
Estocagem de água no solo no período de chuvas é crucial nesse processo, segundo estudo publicado na revista Science |Fevereiro/2016|
Extinção de animais pode agravar efeito das mudanças climáticas
Ausência de espécies frugívoras de grande porte pode interferir no processo de sequestro de CO2 da atmosfera |Dezembro/2015|
Florestas em transformação
Trepadeiras estão remodelando a Amazônia, e os bambus, a mata atlântica |Outubro/2014|
068-069_Algas_222 Microalgas transformadas
Membrana que filtra meio de cultura permite selecionar biomassa com proteínas, ácidos graxos ou carboidratos |Agosto/2014|
022-027_Entrevista_217 Entrevista: Luciana Vanni Gatti
Química explica estudo sobre o balanço de carbono na Amazônia |Março/2014|
036-041_Manguezais_216 Rede de proteção
Manguezais ganham importância diante de alterações no clima |Fevereiro/2014|
brown_river_small Emissão desequilibrada
Floresta amazônica pode estar enviando mais CO2 à atmosfera durante período de seca |Fevereiro/2014|
030-033_cana_159 Balanço sustentável
Estudo da Embrapa atualiza as vantagens do etanol no combate aos gases causadores do efeito estufa |Maio/2009|
chuva As poderosas águas dos rios
Turbinadas pelo aquecimento global, variações no regime de chuvas na bacia do Prata podem tumultuar a circulação marinha no Sul e Sudeste |Janeiro/2008|
Castanheira da amazônia Abrindo o guarda-chuva verde
As cidades precisam de mais árvores, mas há prós e contras em plantar mais exemplares no meio urbano |Outubro/2007|
art3269img1 Tecnologia contra o aquecimento global
Brasil sai na frente com etanol, biodiesel e plantio direto |Junho/2007|
art3179img1 O dia depois de amanhã
Pesquisadores unem-se para esmiuçar os efeitos do aquecimento global no Brasil|Março/2007|
botanica O jatobá contra a poluição
Árvores tropicais podem ser opção para limpar atmosfera caso o efeito estufa aumente|Outubro/2002|
Castanheira da amazônia Impactos irreversíveis do desmatamento
Mata recuperada absorve menos gás carbônico do que até agora se pensava |Abril/2000|

Quando a tecnociência vê um pixel mas ignora a paisagem. A agricultura convencional mata o solo. Entrevista especial com Antonio Donato Nobre (Unisinos)

Segunda, 16 de maio de 2016

“Mais importante do que ser multidisciplinar é ser não-disciplinar, isto é, integrar e dissolver as ‘disciplinas’ em um saber amplo e articulado, sem fronteiras artificiais e domínios de egos”, afirma o cientista do CCST/Inpe

O conhecimento científico não pode cegar a complexa relação entre os inúmeros ecossistemas presentes no planeta. “Tal abordagem gera soluções autistas que não se comunicam, tumores exuberantes cuja expansão danifica tudo que está em volta. Assim, a tecnociência olha o mundo com um microscópio grudado em seus olhos, vê pixel, mas ignora a paisagem”, afirma Antonio Donato Nobre, cientista do Centro de Ciência do Sistema Terrestre do Instituto Nacional de Pesquisas Espaciais – CCST/Inpe.

“A maior parte da agricultura tecnificada adotada pelo agronegócio é pobre em relação à complexidade natural. Ela elimina de saída a capacidade dos organismos manejados de interferir beneficamente no ambiente, introduzindo desequilíbrios e produzindo danos em muitos níveis”, analisa, em entrevista concedida por e-mail à IHU On-Line.

Para Nobre, a saída não é abandonar a ciência e a tecnologia produtiva de alimentos, mas sim associá-las e integrá-las a sistemas complexos de vidas em ecossistemas do Planeta. É entender, por exemplo, que a criação de áreas de plantio e produção agropecuária impactarão na chamada “equação do clima”. “É preciso remover os microscópios dos olhos, olhar o conjunto, perceber as conexões e, assim, aplicar o conhecimento de forma sábia e benéfica”, aponta.

Antonio Donato Nobre é cientista do Centro de Ciência do Sistema Terrestre do Instituto Nacional de Pesquisas Espaciais – CCST/Inpe, autor do relatório O Futuro Climático da Amazônia, lançado no final de 2014.

Tem atuado na divulgação e popularização da ciência, em temas como a Bomba biótica de umidade e sua importância para a valorização das grandes florestas, e os Rios Aéreos de vapor, que transferem umidade da Amazônia para as regiões produtivas do Brasil.

Foi relator nos estudos sobre o Código Florestal promovidos pela Sociedade Brasileira para o Progresso da Ciência – SBPC e Academia Brasileira de Ciências. Possui graduação em Agronomia pela Universidade de São Paulo, mestrado em Biologia Tropical (Ecologia) pelo Instituto Nacional de Pesquisas da Amazônia e é PhD em Earth System Sciences (Biogeochemistry) pela University of New Hampshire.

Atualmente é pesquisador titular do Instituto Nacional de Pesquisas da Amazônia e pesquisador Visitante no Centro de Ciência do Sistema Terrestre, do Instituto Nacional de Pesquisas Espaciais.

Confira a entrevista.

IHU On-Line – Quais os impactos da produção agrícola nas mudanças climáticas? Quais os riscos que o modelo do agronegócio (baseado nas grandes propriedades e produção em larga escala de uma só cultura por vez) representa?

Antonio Donato Nobre – A ocupação desordenada das paisagens produz pesados impactos no funcionamento do sistema de suporte à vida na Terra. A expansão das atividades agrícolas — quase sempre associada à devastação das florestas que têm maior importância na regulação climática — tem consequências que se fazem sentir cada vez mais, e serão devastadoras se não mudarmos a prática da agricultura.

A natureza, ao longo de bilhões de anos, evoluiu um sofisticadíssimo sistema vivo de condicionamento do conforto ambiental. Biodiversidade é o outro nome para competência tecnológica na regulação climática. A maior parte da agricultura tecnificada adotada pelo agronegócio é pobre em relação à complexidade natural. Ela elimina de saída a capacidade dos organismos manejados de interferir beneficamente no ambiente, introduzindo desequilíbrios e produzindo danos em muitos níveis.

IHU On-Line – Como aliar agricultura e pecuária à preservação de florestas e outros ecossistemas? Como o novo Código Florestal  brasileiro se insere nesse contexto?

Antonio Donato Nobre – Extensa literatura científica mostra muitos caminhos para unir com vantagens agricultura, criação de animais e a preservação das florestas e de outros importantes ecossistemas. Esse conhecimento disponível assevera não haver conflito legítimo entre proteção dos ecossistemas e produção agrícola. Muito ao contrário, a melhor ciência demonstra a dependência umbilical da agricultura aos serviços ambientais providos pelos ecossistemas nativos.

Em 2012, contrariando a vontade da sociedade, o congresso revogou o código florestal de 1965. A introdução de uma nova lei florestal lasciva e juridicamente confusa já está produzindo efeitos danosos, como aumentos intoleráveis no desmatamento e a eliminação da exigência, ou o estímulo à procrastinação, no que se refere à recuperação de áreas degradadas. Mas a proteção e recuperação de florestas tem direto impacto sobre o regime de chuvas.

Incrível, portanto, que a agricultura, atividade que primeiro sofrerá com o clima inóspito que já bate às portas do Brasil, tenha sido justamente aquela que destruiu e continua destruindo os ecossistemas produtores de clima amigo. Enquanto estiver em vigor essa irresponsável e inconstitucional nova lei florestal, a degradação ambiental somente vai piorar.

IHU On-Line – De que forma o conhecimento mais detalhado sobre as formas de vida, e a relação entre elas, em florestas, como a amazônica, pode inspirar formas mais eficientes de produção de alimentos e, ao mesmo tempo, minimizar impactos ambientais?

Antonio Donato Nobre – A biomimética  é uma nova área da tecnologia que copia e adapta soluções engenhosas encontradas pelos organismos para resolver desafios existenciais. Janine Benyus, a pioneira popularizadora desse saber, antes ignorado, costuma dizer que os designs encontrados na natureza são resultados de 3,8 bilhões de anos de evolução tecnológica. Durante esse tempo, somente subsistiram soluções efetivas e eficazes, que de saída determinaram a superioridade da tecnologia natural.

Ora, a agricultura precisa redescobrir a potência sustentável e produtiva que é o manejo inteligente de agroecossistemas inspirados nos ecossistemas naturais, ao invés de se divorciar deste vasto campo de conhecimento e soluções, como fez com seus agrossistemas empobrecidos, envenenados e que exploram organismos geneticamente aberrantes.

IHU On-Line – Qual o papel do solo na “composição da equação do clima” no planeta? Em que medida o desequilíbrio do solo pode influenciar nas mudanças climáticas?

Antonio Donato Nobre – Microrganismos e plantas têm incrível capacidade para adaptar-se ao substrato, seja solo, sedimento ou mesmo rocha. Essa adaptação gera simultaneamente uma formação e condicionamento do substrato, o que o torna fértil para a vida vicejar ali. O metabolismo dos ecossistemas, incluindo sua relação com o substrato, tem íntima relação com os ciclos globais de elementos químicos. A composição e funcionamento da atmosfera depende, para sua estabilidade dinâmica, portanto, para o conforto e favorecimento da própria vida, do funcionamento ótimo dos ecossistemas naturais.

Na equação do clima, os ecossistemas são os órgãos indispensáveis que geram a homeostase  ou equilíbrio planetário. A agricultura convencional extermina aquela vida que tem capacidade regulatória, mata o solo, fator chave para sua própria sustentação, e introduz de forma reducionista e irresponsável nutrientes hipersolúveis, substâncias tóxicas desconhecidas da natureza e organismos que podem ser chamados de Frankensteins genéticos.

Todos estes insumos tornam as monoculturas do agronegócio sem qualquer função reguladora para o clima, e muito pior, devido à pesada emissão de gases-estufa e perturbações as mais variadas nos ciclos globais de nutrientes, a agricultura tecnificada é extremamente prejudicial para a estabilidade climática.

IHU On-Line – Desde a perspectiva do antropoceno , como avalia a relação do ser humano com as demais formas de vida do planeta hoje? Qual o papel da tecnologia e da ciência nessa relação?

Antonio Donato Nobre – Esta nova era foi batizada de antropoceno porque os seres humanos tornaram-se capazes de alterações massivas na delgada película esférica que nos permitiu a existência e nos dá abrigo. O maior drama da ocupação humana do ambiente superficial da Terra é que tal capacidade está destruindo o sistema de suporte à vida, sistema esse dependente 100% de todas demais espécies as quais o ser humano tem massacrado em sua expansão explosiva.

Infelizmente, na expansão do antropoceno, o conhecimento científico tem sido apropriado de forma gananciosa por mentes limitadas e arrogantes, e empregado no desenvolvimento sinistro de tecnologias e engenharias que por absoluta ignorância tornaram-se incapazes de valorizar o capital natural da Terra. Este comportamento autodestrutivo tem direta relação com a visão de ganho em curto prazo e a ilusão de poder auferida na aplicação autista de agulhas tecnológicas.

IHU On-Line – Em que medida a aproximação entre ciência e saberes indígenas pode contribuir para um novo caminho em termos de preservação do planeta e produção de alimentos?

Antonio Donato Nobre – Cada pesquisador sincero, inteligente e com mente aberta deve reconhecer a máxima milenar da sabedoria socrática: “somente sei que nada sei”. O conhecimento verdadeiro e sem limites internos impõe uma postura sóbria e humilde diante da enormidade da complexidade do mundo e da natureza. Hoje, a ciência mais avançada dá inteiro e detalhado suporte ao saber ancestral de sociedades tribais, que perduraram por milênios. Descer do salto alto da arrogância que fermentou graças ao individualismo permitirá reconhecer essa sabedoria básica de sustentabilidade, preservada no saber indígena.

Para a ciência, a aprender com o saber nativo está a veneração pela sabedoria da Mãe Terra; a intuição despretensiosa que capta o essencial da complexidade em princípios simples e elegantes; e sua capacidade holística e lúdica de articular a miríade de componentes do ambiente em uma constelação coerente e funcional de elos significativos.

IHU On-Line – De que forma a tecnociência e a tecnocracia impactam na forma de observar o planeta? O que isso significa para a humanidade?

Antonio Donato Nobre – A ciência é esta fascinante aventura humana na busca do conhecimento, evoluída aceleradamente a partir do renascimento na Europa. Muitas são suas virtudes e incríveis suas aplicações. No entanto, tais brilhos parecem infelizmente vir acompanhados quase sempre de alucinantes danos colaterais, nem sempre reconhecidos como tal. Na ciência, que gera o conhecimento básico; na tecnologia, que aplica criativamente esse conhecimento; e na engenharia, que transforma conhecimento em realidade, grassa uma anomalia reducionista que permite a hipertrofia de soluções pontuais, desconectadas entre si e do conjunto.

Tal abordagem gera soluções autistas que não se comunicam, tumores exuberantes cuja expansão danifica tudo que está em volta. Assim, a tecnociência olha o mundo com um microscópio grudado em seus olhos, vê pixel, mas ignora a paisagem. Abre caminhos para que ânimos restritos se apropriem de conhecimentos parciais e destruam o mundo. É preciso remover os microscópios dos olhos, olhar o conjunto, perceber as conexões e, assim, aplicar o conhecimento de forma sábia e benéfica.

IHU On-Line – De que forma conceitos como a Ecologia Integral, presentes na Encíclica Laudato Si’, do papa Francisco, contribuem para o desenvolvimento de uma visão sistêmica do ser humano sobre o planeta? Qual a importância de uma perspectiva multidisciplinar acerca da temática ambiental?

Antonio Donato Nobre – Ecologia Integral deve significar o que o nome diz. Aliás, se não for integral não pode ser denominada ecologia. Isso porque na natureza não existe isolamento, cada partícula, cada componente, cada organismo e cada sistema interage com os demais, sob o sábio comando das leis fundamentais. Por isso a ação humana pode gerar um acorde harmonioso na grande sinfonia universal, ou — se desrespeitar as leis — tornar-se fonte de perturbação e destruição.

Mais importante do que ser multidisciplinar é ser não-disciplinar, isto é, integrar e dissolver as “disciplinas” em um saber amplo e articulado, sem fronteiras artificiais e domínios de egos. A ciência verdadeira é aquela oriunda do livre pensar, do profundo sentir e do intuir espontâneo. A busca da verdade está ao alcance de todas as pessoas, não é nem deveria ser território exclusivo dos iniciados na ciência. Todos somos dotados da capacidade de inquirir e temos como promessa de realização o dom da consciência. Cientistas são facilitadores, e como tal deveriam servir aos semelhantes com boa vontade, iluminando o caminho do conhecimento, guiando na direção do saber.

IHU On-Line – Como avalia a agroecologia no Brasil hoje? O que a ciência e a tecnologia oferecem em termos de avanços para esse campo?

Antonio Donato Nobre – Agroecologia, agrofloresta sintrópica, sistemas agroflorestais, agricultura biodinâmica, trofobiose, agricultura orgânica, agricultura sustentável etc. compõem um rico repertório de abordagens que convergem na aspiração de emular em agroecossistemas a riqueza e funcionamento dos ecossistemas naturais. Uma parte dos desenvolvimentos científicos e tecnológicos autistas de até então pode ser aproveitada para essa nova era de agricultura produtiva, iluminada, respeitadora, harmônica e saudável.

É preciso, porém, que o isolamento acabe, que os conhecimentos sejam transparentes, integrados, articulados, simplificados e recolocados em perspectiva. Se as agulhas tecnológicas foram danosas, como os transgênicos, por exemplo, ainda assim serão úteis para sabermos o que “não” fazer. Na compreensão em detalhe das bases moleculares da vida, abrindo portais para consciência sobre a complexidade astronômica existente e atuante em todos os organismos, a humanidade terá finalmente a prova irrefutável para o acerto das abordagens holísticas e ecológicas.

IHU On-Line – Deseja acrescentar algo?

Antonio Donato Nobre – É preciso iluminar e revelar a imensa teia de mentiras criada em torno da revolução verde com seus exuberantes tumores tecnológicos. As falsidades suportadas por corporações, governos, mídia e educação bitoladora desde a mais tenra idade, implantaram um sistema mundial de dominação que, literalmente, enfia goela abaixo da humanidade um menu infernal de alimentos portadores de doenças.

Esse triunfante modelo de negócio não se contenta em somente alimentar mal, o faz via quantidades crescentes de produtos animais, os quais requerem imensas áreas e grandes quantidades de água e outros insumos para serem produzidos.

Com isso a pegada humana no planeta torna-se destrutiva e insuportável, e a consequência já se faz sentir no clima como falência múltipla de órgãos. Apesar disso, creio que ainda temos uma pequena chance de evitar o pior se, como humanidade, dermos apoio irrestrito para a busca da verdade.

Precisamos de uma operação Lava Jato no campo, e a ciência tem todas as ferramentas para apoiar esse esforço de sobrevivência.

Instituto Humanitas Unisinos

A importância da laicidade no século 21 (OESP)

15 Maio 2016 | 03h 00

Neste século, cujo primeiro evento de repercussão mundial foram os ataques às torres gêmeas de Nova York, em 11 de setembro de 2001, assistimos ao ressurgimento do papel da religião na vida política. No cenário internacional, são notórios e dramáticos os fatos que complicam a geopolítica mundial, ocasionados por interpretações de caráter fundamentalista de religiões estabelecidas.

No Brasil, a presença da atividade política baseada e dirigida por princípios de fé nunca foi tão marcante. De acordo com o Departamento Intersindical de Assessoria Parlamentar (Diap), o pleito de 2014 elegeu uma bancada evangélica de 75 deputados federais; no seu apogeu, em 1962, o Partido Democrata Cristão, de inspiração católica, tinha 20 cadeiras na Câmara dos Deputados.

Nesse contexto, é oportuno retomar a questão da laicidade, seu papel na vida da democracia e dos direitos humanos, seus nexos com a secularização e a tolerância.

A secularização, termo que vem do latim saeculum, do mundo da vida terrena (não da vida religiosa), e a laicidade, do grego laos, povo, como leigo e laico, em contraposição ao clero no quadro de hierarquização da Igreja, foram consequências da dessacralização da sociedade, como aponta Weber.

O processo de diferenciação estrutural e funcional das instituições é a acepção que mais aproxima a laicização à secularização. Os atores sociais não só começaram a se distanciar da força avassaladora das tradições religiosas, mas as relações das religiões com o Estado se alteraram fundamentalmente no correr desse processo que remonta aos ideais do Iluminismo e da Revolução Francesa. Nesse contexto, surge o tema da laicidade do Estado.

Um Estado laico diferencia-se do teocrático, em que o poder religioso e o poder político se fundem, e também do confessional, em que há vínculos entre o poder político e uma religião.

No Brasil Império, a religião oficial era a católica, ainda que outras fossem permitidas e a liberdade de opinião, assegurada. Com a República, deu-se a separação da Igreja do Estado, que se tornou laico, ensejando a igualdade da liberdade dos cultos, a secularização dos cemitérios, o casamento civil e o registro civil para o nascimento e o falecimento de pessoas.

Rui Barbosa, autor da legislação que implantou a laicização do Estado brasileiro, consagrada na Constituição de 1891, explica que sua matriz inspiradora foi norte-americana. O Estado se dessolidarizou de toda a atividade religiosa em função, como diria Jefferson, da prevalência de um muro de separação entre a atividade religiosa e a ação estatal como preconizado pela Primeira Emenda da Constituição dos EUA. O Estado laico não implica que a sociedade civil seja laica. Com efeito, esta passou a se constituir como uma esfera autônoma e própria para o exercício da liberdade religiosa e de consciência, na qual o Estado não interfere. Abria-se desse modo espaço para o que Benjamin Constant denominou liberdade negativa, não submetida a regras externas provenientes do poder público.

A laicidade, aponta Abbagnano, é expressão do princípio da autonomia das/nas atividades humanas: elas podem se desenvolver segundo regras próprias, não impostas externamente por fins e interesses diversos daqueles que as inspiram e norteiam. É o caso da liberdade de pesquisa, que pressupõe o antidogmatismo e o exame crítico de temas e problemas.

Quando a polarização e as tensões se tornam mais agudas, é importante lembrar que a laicidade é uma das formas de tolerância, ou, mais exatamente, uma das maneiras de responder ao problema da intolerância.

Como ressalta Bobbio, o tema da tolerância surgiu com a desconcentração do poder ideológico (consequência da secularização), pois a tolerância em relação a distintas crenças e opiniões coloca o problema de como lidar com a compatibilidade/convivência de verdades contrapostas (laicidade metodológica, pluralismo, antidogmatismo) e, subsequentemente, com o “diferente” (estrangeiros, pessoas de diversas opções sexuais, etc…). Daí o nexo entre democracia e direitos humanos, pois a tutela da liberdade de crença, de opinião e de posições políticas integra as regras do jogo democrático, para as quais o Outro não é um inimigo a ser eliminado, mas integrante da mesma comunidade política.

Em relação ao “diferente”, lembro que a Constituição (artigo 3.º, IV) estabelece que um dos objetivos da República é “promover o bem de todos sem preconceitos de origem, raça, sexo, cor e quaisquer outras formas de discriminação”.

Entre os componentes da dicotomia tolerância/intolerância está, no plano interno, a convivência/coexistência de verdades contrapostas (religiosas, políticas), no âmbito das regras do jogo democrático e da tutela dos direitos humanos; no plano externo, a aceitação da pluralidade dos Estados na sua heterogeneidade.

Por essa razão um Estado aconfessional como o brasileiro (artigo 19, I, da Constituição) não pode, por obra de dependência ou aliança com qualquer religião, sancionar juridicamente normas ético-religiosas próprias à fé de uma confissão. Por exemplo: no campo da família, o direito ao divórcio; no critério do início da vida, a descriminalização do aborto e a pesquisa científica com células-tronco.

Num Estado laico, as normas religiosas das diversas confissões são conselhos dirigidos aos fiéis, e não comandos para toda a sociedade. A finalidade da liberdade de religião e de pensamento é garantir ao cidadão uti singuli a máxima diferenciação no campo das ideologias, das religiões e da cultura – ou seja, a liberdade individual.

A finalidade pública da laicidade é criar, nesse contexto, para todos os cidadãos uma plataforma comum na qual possam encontrar-se enquanto membros de uma comunidade política. É essa finalidade que cabe resguardar, para conter o indevido transbordar da religião para o espaço público, que se tornou um dos desafios da agenda política contemporânea.

Neste século, cujo primeiro evento de repercussão mundial foram os ataques às torres gêmeas de Nova York, em 11 de setembro de 2001, assistimos ao ressurgimento do papel da religião na vida política. No cenário internacional, são notórios e dramáticos os fatos que complicam a geopolítica mundial, ocasionados por interpretações de caráter fundamentalista de religiões estabelecidas.

No Brasil, a presença da atividade política baseada e dirigida por princípios de fé nunca foi tão marcante. De acordo com o Departamento Intersindical de Assessoria Parlamentar (Diap), o pleito de 2014 elegeu uma bancada evangélica de 75 deputados federais; no seu apogeu, em 1962, o Partido Democrata Cristão, de inspiração católica, tinha 20 cadeiras na Câmara dos Deputados.

Nesse contexto, é oportuno retomar a questão da laicidade, seu papel na vida da democracia e dos direitos humanos, seus nexos com a secularização e a tolerância.

A secularização, termo que vem do latim saeculum, do mundo da vida terrena (não da vida religiosa), e a laicidade, do grego laos, povo, como leigo e laico, em contraposição ao clero no quadro de hierarquização da Igreja, foram consequências da dessacralização da sociedade, como aponta Weber.

O processo de diferenciação estrutural e funcional das instituições é a acepção que mais aproxima a laicização à secularização. Os atores sociais não só começaram a se distanciar da força avassaladora das tradições religiosas, mas as relações das religiões com o Estado se alteraram fundamentalmente no correr desse processo que remonta aos ideais do Iluminismo e da Revolução Francesa. Nesse contexto, surge o tema da laicidade do Estado.

Um Estado laico diferencia-se do teocrático, em que o poder religioso e o poder político se fundem, e também do confessional, em que há vínculos entre o poder político e uma religião.

No Brasil Império, a religião oficial era a católica, ainda que outras fossem permitidas e a liberdade de opinião, assegurada. Com a República, deu-se a separação da Igreja do Estado, que se tornou laico, ensejando a igualdade da liberdade dos cultos, a secularização dos cemitérios, o casamento civil e o registro civil para o nascimento e o falecimento de pessoas.

Rui Barbosa, autor da legislação que implantou a laicização do Estado brasileiro, consagrada na Constituição de 1891, explica que sua matriz inspiradora foi norte-americana. O Estado se dessolidarizou de toda a atividade religiosa em função, como diria Jefferson, da prevalência de um muro de separação entre a atividade religiosa e a ação estatal como preconizado pela Primeira Emenda da Constituição dos EUA. O Estado laico não implica que a sociedade civil seja laica. Com efeito, esta passou a se constituir como uma esfera autônoma e própria para o exercício da liberdade religiosa e de consciência, na qual o Estado não interfere. Abria-se desse modo espaço para o que Benjamin Constant denominou liberdade negativa, não submetida a regras externas provenientes do poder público.

A laicidade, aponta Abbagnano, é expressão do princípio da autonomia das/nas atividades humanas: elas podem se desenvolver segundo regras próprias, não impostas externamente por fins e interesses diversos daqueles que as inspiram e norteiam. É o caso da liberdade de pesquisa, que pressupõe o antidogmatismo e o exame crítico de temas e problemas.

Quando a polarização e as tensões se tornam mais agudas, é importante lembrar que a laicidade é uma das formas de tolerância, ou, mais exatamente, uma das maneiras de responder ao problema da intolerância.

Como ressalta Bobbio, o tema da tolerância surgiu com a desconcentração do poder ideológico (consequência da secularização), pois a tolerância em relação a distintas crenças e opiniões coloca o problema de como lidar com a compatibilidade/convivência de verdades contrapostas (laicidade metodológica, pluralismo, antidogmatismo) e, subsequentemente, com o “diferente” (estrangeiros, pessoas de diversas opções sexuais, etc…). Daí o nexo entre democracia e direitos humanos, pois a tutela da liberdade de crença, de opinião e de posições políticas integra as regras do jogo democrático, para as quais o Outro não é um inimigo a ser eliminado, mas integrante da mesma comunidade política.

Em relação ao “diferente”, lembro que a Constituição (artigo 3.º, IV) estabelece que um dos objetivos da República é “promover o bem de todos sem preconceitos de origem, raça, sexo, cor e quaisquer outras formas de discriminação”.

Entre os componentes da dicotomia tolerância/intolerância está, no plano interno, a convivência/coexistência de verdades contrapostas (religiosas, políticas), no âmbito das regras do jogo democrático e da tutela dos direitos humanos; no plano externo, a aceitação da pluralidade dos Estados na sua heterogeneidade.

Por essa razão um Estado aconfessional como o brasileiro (artigo 19, I, da Constituição) não pode, por obra de dependência ou aliança com qualquer religião, sancionar juridicamente normas ético-religiosas próprias à fé de uma confissão. Por exemplo: no campo da família, o direito ao divórcio; no critério do início da vida, a descriminalização do aborto e a pesquisa científica com células-tronco.

Num Estado laico, as normas religiosas das diversas confissões são conselhos dirigidos aos fiéis, e não comandos para toda a sociedade. A finalidade da liberdade de religião e de pensamento é garantir ao cidadão uti singuli a máxima diferenciação no campo das ideologias, das religiões e da cultura – ou seja, a liberdade individual.

A finalidade pública da laicidade é criar, nesse contexto, para todos os cidadãos uma plataforma comum na qual possam encontrar-se enquanto membros de uma comunidade política. É essa finalidade que cabe resguardar, para conter o indevido transbordar da religião para o espaço público, que se tornou um dos desafios da agenda política contemporânea.

*Celso Lafer é professor emérito da Universidade de São Paulo

A ciência inútil de Alckmim (OESP)

14 Maio 2016 | 03h 00

Geraldo Alckmin insinuou, semanas atrás, que o dinheiro destinado à pesquisa científica no Estado de São Paulo é desperdiçado em estudos irrelevantes ou mesmo inúteis. Ninguém duvida que a aplicação do dinheiro público deve ser cuidadosa e sempre pode ser melhorada. O problema é saber o que é ciência útil.

Quinze páginas publicadas nesta semana na mais conceituada revista científica mundial podem ser consideradas uma resposta às criticas do governador. Principalmente porque seus autores foram, durante anos, considerados grandes produtores de ciência “inútil”. Mas vamos à história que culminou na publicação.

Faz mais de 20 anos, um amigo voltou da França com uma ideia fixa. Queria estudar a biologia molecular dos vírus. Argumentava que novos vírus surgiriam do nada para assombrar a humanidade. O HIV e o ebola eram o prenúncio do que nos esperava no futuro. Sua ciência sempre foi criativa e de qualidade. E foi por esse motivo, e não com medo do apocalipse, que a Fapesp passou a financiar o jovem virologista. O grupo cresceu.

A ciência que esses virologistas produziram nas últimas décadas pode ser classificada como básica ou pura, sem utilidade aparente. Talvez fosse considerada “inútil” pelo governador. Pessoas que pensam assim acreditam que o papel do Estado é financiar projetos que resultem em conhecimentos de utilidade óbvia e imediata, que resolvam os problemas da Nação. Como essa política científica utilitarista e de curto prazo não predomina na Fapesp, a virologia molecular “inútil” prosperou no Estado de São Paulo. Entre os anos 2000 e 2007, eles formaram uma rede de pesquisa, montaram laboratórios, formaram estudantes e publicaram trabalhos científicos. Depois cada um seguiu seu caminho, estudando vírus diferentes, com métodos distintos, nas mais diversas unidades da USP.

Em dezembro, meu colega apareceu na Fapesp com outra ideia fixa. Argumentou que um vírus quase desconhecido poderia estar relacionado aos casos de microcefalia que pipocavam no Nordeste. Era o zika. Enquanto o pânico se espalhava em meio à total desinformação, em uma semana a rede dos virologistas moleculares se aglutinou e resolveu atacar o problema. Eram 45 cientistas agrupados em 15 laboratórios “inúteis”. Na semana seguinte, a Fapesp aumentou o financiamento desses laboratórios. Não tardou para um exército de virologistas moleculares paulistas desembarcar no palco da tragédia munidos de tudo que existia de “inútil” nos seus laboratórios. Isolaram o vírus dos pacientes e, enquanto um laboratório “inútil” cultivava o vírus, outro “inútil” sequenciou seu genoma. Rapidamente esse grupo de cientistas básicos se tornou “útil”. Demonstraram que o vírus ataca células do sistema nervoso, que atravessa a placenta e infecta o sistema nervoso do feto. E que provoca o retardo de seu crescimento.

Em poucos meses, a nova variante do vírus zika foi identificada, isolada, seu mecanismo de ação, esclarecido, e um modelo experimental para a doença foi desenvolvido. Essas descobertas vão servir como base para o desenvolvimento de uma vacina nos próximos anos. São essas descobertas “úteis”, descritas no trabalho realizado por cientistas “inúteis”, que agora foram publicadas pela revista Nature.

Premidos pela Segunda Guerra, cientistas “inúteis” dos EUA e da Inglaterra desenvolveram o radar, a bomba atômica e o computador. Premidos pela microcefalia, nossos virologistas estão ajudando a resolver o problema. Da mesma maneira que era impossível prever no entreguerras que o financiamento de linguistas, físicos teóricos, matemáticos e outros cientistas “inúteis” fosse ajudar no esforço de guerra, era impossível prever que os esforços de financiamento de jovens virologistas iriam, anos mais tarde, solucionar o enigma do zika antes da toda poderosa ciência americana.

Esse é um dos motivos que levam todo país que se preza a financiar essa tal de ciência “inútil”. Esse repositório de cientistas, laboratórios e conhecimento não somente aumenta nosso conhecimento sobre a natureza e ajuda a educar nossos jovens, mas pode ser aglutinado em uma emergência. Foi porque a Fapesp financiou ciência “inútil” por anos que agora temos a capacidade de responder rapidamente a uma emergência médica nacional. Do meu ponto de vista, a simples existência desse trabalho científico é uma resposta da comunidade científica às críticas ventiladas por nosso governador.

MAIS INFORMAÇÕES: THE BRAZILIAN ZIKA VÍRUS STRAIN CAUSES BIRTH DEFECTS IN EXPERIMENTAL MODELS. NATURE DOI:10.1038/NATURE18296 2016

Há um limite para avanços tecnológicos? (OESP)

16 Maio 2016 | 03h 00

Está se tornando popular entre políticos e governos a ideia que a estagnação da economia mundial se deve ao fato de que o “século de ouro” da inovação científica e tecnológica acabou. Este “século de ouro” é usualmente definido como o período de 1870 a 1970, no qual os fundamentos da era tecnológica em que vivemos foram estabelecidos.

De fato, nesse período se verificaram grandes avanços no nosso conhecimento, que vão desde a Teoria da Evolução, de Darwin, até a descoberta das leis do eletromagnetismo, que levou à produção de eletricidade em larga escala, e telecomunicações, incluindo rádio e televisão, com os benefícios resultantes para o bem-estar das populações. Outros avanços, na área de medicina, como vacinas e antibióticos, estenderam a vida média dos seres humanos. A descoberta e o uso do petróleo e do gás natural estão dentro desse período.

São muitos os que argumentam que em nenhum outro período de um século – ao longo dos 10 mil anos da História da humanidade – tantos progressos foram alcançados. Essa visão da História, porém, pode e tem sido questionada. No século anterior, de 1770 a 1870, por exemplo, houve também grandes progressos, decorrentes do desenvolvimento dos motores que usavam o carvão como combustível, os quais permitiram construir locomotivas e deram início à Revolução Industrial.

Apesar disso, os saudosistas acreditam que o “período dourado” de inovações se tenha esgotado e, em decorrência, os governos adotam hoje medidas de caráter puramente econômico para fazer reviver o “progresso”: subsídios a setores específicos, redução de impostos e políticas sociais para reduzir as desigualdades, entre outras, negligenciando o apoio à ciência e tecnologia.

Algumas dessas políticas poderiam ajudar, mas não tocam no aspecto fundamental do problema, que é tentar manter vivo o avanço da ciência e da tecnologia, que resolveu problemas no passado e poderá ajudar a resolver problemas no futuro.

Para analisar melhor a questão é preciso lembrar que não é o número de novas descobertas que garante a sua relevância. O avanço da tecnologia lembra um pouco o que acontece às vezes com a seleção natural dos seres vivos: algumas espécies são tão bem adaptadas ao meio ambiente em que vivem que deixam de “evoluir”: esse é o caso dos besouros que existiam na época do apogeu do Egito, 5 mil anos atrás, e continuam lá até hoje; ou de espécies “fósseis” de peixes que evoluíram pouco em milhões de anos.

Outros exemplos são produtos da tecnologia moderna, como os magníficos aviões DC-3, produzidos há mais de 50 anos e que ainda representam uma parte importante do tráfego aéreo mundial.

Mesmo em áreas mais sofisticadas, como a informática, isso parece estar ocorrendo. A base dos avanços nessa área foi a “miniaturização” dos chips eletrônicos, onde estão os transistores. Em 1971 os chips produzidos pela Intel (empresa líder na área) tinham 2.300 transistores numa placa de 12 milímetros quadrados. Os chips de hoje são pouco maiores, mas têm 5 bilhões de transistores. Foi isso que permitiu a produção de computadores personalizados, telefones celulares e inúmeros outros produtos. E é por essa razão que a telefonia fixa está sendo abandonada e a comunicação via Skype é praticamente gratuita e revolucionou o mundo das comunicações.

Há agora indicações que essa miniaturização atingiu seus limites, o que causa uma certa depressão entre os “sacerdotes” desse setor. Essa é uma visão equivocada. O nível de sucesso foi tal que mais progressos nessa direção são realmente desnecessários, que é o que aconteceu com inúmeros seres vivos no passado.

O que parece ser a solução dos problemas do crescimento econômico no longo prazo é o avanço da tecnologia em outras áreas que não têm recebido a atenção necessária: novos materiais, inteligência artificial, robôs industriais, engenharia genética, prevenção de doenças e, mais do que tudo, entender o cérebro humano, o produto mais sofisticado da evolução da vida na Terra.

Entender como uma combinação de átomos e moléculas pode gerar um órgão tão criativo como o cérebro, capaz de possuir uma consciência e criatividade para compor sinfonias como as de Beethoven – e ao mesmo tempo promover o extermínio de milhões de seres humanos –, será provavelmente o avanço mais extraordinário que o Homo sapiens poderá atingir.

Avanços nessas áreas poderiam criar uma vaga de inovações e progresso material superior em quantidade e qualidade ao que se produziu no “século de ouro”. Mais ainda enfrentamos hoje um problema global, novo aqui, que é a degradação ambiental, resultante em parte do sucesso dos avanços da tecnologia do século 20. Apenas a tarefa de reduzir as emissões de gases que provocam o aquecimento global (resultante da queima de combustíveis fósseis) será uma tarefa hercúlea.

Antes disso, e num plano muito mais pedestre, os avanços que estão sendo feitos na melhoria da eficiência no uso de recursos naturais é extraordinário e não tem tido o crédito e o reconhecimento que merecem.

Só para dar um exemplo, em 1950 os americanos gastavam, em média, 30% da sua renda em alimentos. No ano de 2013 essa porcentagem havia caído para 10%. Os gastos com energia também caíram, graças à melhoria da eficiência dos automóveis e outros fins, como iluminação e aquecimento, o que, aliás, explica por que o preço do barril de petróleo caiu de US$ 150 para menos de US$ 30. É que simplesmente existe petróleo demais no mundo, como também existe capacidade ociosa de aço e cimento.

Um exemplo de um país que está seguindo esse caminho é o Japão, cuja economia não está crescendo muito, mas sua população tem um nível de vida elevado e continua a beneficiar-se gradualmente dos avanços da tecnologia moderna.

*José Goldemberg é professor emérito da Universidade de São Paulo (USP) e é presidente da Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp)

Who’s downloading pirated papers? Everyone (Science)

John Bohannon

Science  29 Apr 2016: Vol. 352, Issue 6285, pp. 508-512
DOI: 10.1126/science.352.6285.508

Data from the controversial website Sci-Hub reveal that the whole world turns to it for journal articles.

Just as spring arrived last month in Iran, Meysam Rahimi sat down at his university computer and immediately ran into a problem: how to get the scientific papers he needed. He had to write up a research proposal for his engineering Ph.D. at Amirkabir University of Technology in Tehran. His project straddles both operations management and behavioral economics, so Rahimi had a lot of ground to cover.

But every time he found the abstract of a relevant paper, he hit a paywall. Although Amirkabir is one of the top research universities in Iran, international sanctions and economic woes have left it with poor access to journals. To read a 2011 paper in Applied Mathematics and Computation, Rahimi would have to pay the publisher, Elsevier, $28. A 2015 paper in Operations Research, published by the U.S.-based company INFORMS, would cost $30.

He looked at his list of abstracts and did the math. Purchasing the papers was going to cost $1000 this week alone—about as much as his monthly living expenses—and he would probably need to read research papers at this rate for years to come. Rahimi was peeved. “Publishers give nothing to the authors, so why should they receive anything more than a small amount for managing the journal?”

Many academic publishers offer programs to help researchers in poor countries access papers, but only one, called Share Link, seemed relevant to the papers that Rahimi sought. It would require him to contact authors individually to get links to their work, and such links go dead 50 days after a paper’s publication. The choice seemed clear: Either quit the Ph.D. or illegally obtain copies of the papers. So like millions of other researchers, he turned to Sci-Hub, the world’s largest pirate website for scholarly literature. Rahimi felt no guilt. As he sees it, high-priced journals “may be slowing down the growth of science severely.”

The journal publishers take a very different view. “I’m all for universal access, but not theft!” tweeted Elsevier’s director of universal access, Alicia Wise, on 14 March during a heated public debate over Sci-Hub. “There are lots of legal ways to get access.” Wise’s tweet included a link to a list of 20 of the company’s access initiatives, including Share Link.

But in increasing numbers, researchers around the world are turning to Sci-Hub, which hosts 50 million papers and counting. Over the 6 months leading up to March, Sci-Hub served up 28 million documents. More than 2.6 million download requests came from Iran, 3.4 million from India, and 4.4 million from China. The papers cover every scientific topic, from obscure physics experiments published decades ago to the latest breakthroughs in biotechnology. The publisher with the most requested Sci-Hub articles? It is Elsevier by a long shot—Sci-Hub provided half-a-million downloads of Elsevier papers in one recent week.

These statistics are based on extensive server log data supplied by Alexandra Elbakyan, the neuroscientist who created Sci-Hub in 2011 as a 22-year-old graduate student in Kazakhstan (see bio, p. 511). I asked her for the data because, in spite of the flurry of polarized opinion pieces, blog posts, and tweets about Sci-Hub and what effect it has on research and academic publishing, some of the most basic questions remain unanswered: Who are Sci-Hub’s users, where are they, and what are they reading?

For someone denounced as a criminal by powerful corporations and scholarly societies, Elbakyan was surprisingly forthcoming and transparent. After establishing contact through an encrypted chat system, she worked with me over the course of several weeks to create a data set for public release: every download event over the 6-month period starting 1 September 2015, including the digital object identifier (DOI) for every paper. To protect the privacy of Sci-Hub users, we agreed that she would first aggregate users’ geographic locations to the nearest city using data from Google Maps; no identifying internet protocol (IP) addresses were given to me. (The data set and details on how it was analyzed are freely accessible at http://dx.doi.org/10.5061/dryad.q447c.)

F1.mediumIt’s a Sci-Hub WorldCREDITS: (DATA) SCI-HUB; (MAP) ADAPTED BY G. GRULLÓN/SCIENCE 

Elbakyan also answered nearly every question I had about her operation of the website, interaction with users, and even her personal life. Among the few things she would not disclose is her current location, because she is at risk of financial ruin, extradition, and imprisonment because of a lawsuit launched by Elsevier last year.

The Sci-Hub data provide the first detailed view of what is becoming the world’s de facto open-access research library. Among the revelations that may surprise both fans and foes alike: Sci-Hub users are not limited to the developing world. Some critics of Sci-Hub have complained that many users can access the same papers through their libraries but turn to Sci-Hub instead—for convenience rather than necessity. The data provide some support for that claim. The United States is the fifth largest downloader after Russia, and a quarter of the Sci-Hub requests for papers came from the 34 members of the Organization for Economic Co-operation and Development, the wealthiest nations with, supposedly, the best journal access. In fact, some of the most intense use of Sci-Hub appears to be happening on the campuses of U.S. and European universities.

In October last year, a New York judge ruled in favor of Elsevier, decreeing that Sci-Hub infringes on the publisher’s legal rights as the copyright holder of its journal content, and ordered that the website desist. The injunction has had little effect, as the server data reveal. Although the sci-hub.org web domain was seized in November 2015, the servers that power Sci-Hub are based in Russia, beyond the influence of the U.S. legal system. Barely skipping a beat, the site popped back up on a different domain.

Online Survey

Tell us what you think about Sci-Hub at http://bit.ly/Sci-Hub.

It’s hard to discern how threatened by Sci-Hub Elsevier and other major publishers truly feel, in part because legal download totals aren’t typically made public. An Elsevier report in 2010, however, estimated more than 1 billion downloads for all publishers for the year, suggesting Sci-Hub may be siphoning off under 5% of normal traffic. Still, many are concerned that Sci-Hub will prove as disruptive to the academic publishing business as the pirate site Napster was for the music industry (see editorial, p. 497). “I don’t endorse illegal tactics,” says Peter Suber, director of the Office for Scholarly Communications at Harvard University and one of the leading experts on open-access publishing. However, “a lawsuit isn’t going to stop it, nor is there any obvious technical means. Everyone should be thinking about the fact that this is here to stay.”

Need or convenience?CREDITS: (DATA) SCI-HUB; (MAP) ADAPTED BY G. GRULLÓN/SCIENCE

IT IS EASY TO UNDERSTAND why journal publishers might see Sci-Hub as a threat. It is as simple to use as Google’s search engine, and as long as you know the DOI or title of a paper, it is more reliable for finding the full text. Chances are, you’ll find what you’re looking for. Along with book chapters, monographs, and conference proceedings, Sci-Hub has amassed copies of the majority of scholarly articles ever published. It continues to grow: When someone requests a paper not already on Sci-Hub, it pirates a copy and adds it to the repository.

Elbakyan declined to say exactly how she obtains the papers, but she did confirm that it involves online credentials: the user IDs and passwords of people or institutions with legitimate access to journal content. She says that many academics have donated them voluntarily. Publishers have alleged that Sci-Hub relies on phishing emails to trick researchers, for example by having them log in at fake journal websites. “I cannot confirm the exact source of the credentials,” Elbakyan told me, “but can confirm that I did not send any phishing emails myself.”

So by design, Sci-Hub’s content is driven by what scholars seek. The January paper in The Astronomical Journal describing a possible new planet on the outskirts of our solar system? The 2015 Nature paper describing oxygen on comet 67P/Churyumov-Gerasimenko? The paper in which a team genetically engineered HIV resistance into human embryos with the CRISPR method, published a month ago in the Journal of Assisted Reproduction and Genetics? Sci-Hub has them all.

It has news articles from scientific journals—including many of mine in Science—as well as copies of open-access papers, perhaps because of confusion on the part of users or because they are simply using Sci-Hub as their all-in-one portal for papers. More than 4000 different papers from PLOS’s various open-access journals, for example, can be downloaded from Sci-Hub.

The flow of Sci-Hub activity over time reflects the working lives of researchers, growing over the course of each day and then ebbing—but never stopping—as night falls. (There is an 18-day gap in the data starting 4 November 2015 when the domain sci-hub.org went down and the server logs were improperly configured.) By the end of February, the flow of Sci-Hub papers had risen to its highest level yet: more than 200,000 download requests per day.

How many Sci-Hub users are there? The download requests came from 3 million unique IP addresses, which provides a lower bound. But the true number is much higher because thousands of people on a university campus can share the same IP address. Sci-Hub downloaders live on every continent except Antarctica. Of the 24,000 city locations to which they cluster, the busiest is Tehran, with 1.27 million requests. Much of that is from Iranians using programs to automatically download huge swaths of Sci-Hub’s papers to make a local mirror of the site, Elbakyan says. Rahimi, the engineering student in Tehran, confirms this. “There are several Persian sites similar to Sci-Hub,” he says. “So you should consider Iranian illegal [paper] downloads to be five to six times higher” than what Sci-Hub alone reveals.

The geography of Sci-Hub usage generally looks like a map of scientific productivity, but with some of the richer and poorer science-focused nations flipped. The smaller countries have stories of their own. Someone in Nuuk, Greenland, is reading a paper about how best to provide cancer treatment to indigenous populations. Research goes on in Libya, even as a civil war rages there. Someone in Benghazi is investigating a method for transmitting data between computers across an air gap. Far to the south in the oil-rich desert, someone near the town of Sabhā is delving into fluid dynamics. (Go to bit.ly/Sci-Hub for an interactive map of the website’s data and see what people are reading in cities worldwide.) Mapping IP addresses to real-world locations can paint a false picture if people hide behind web proxies or anonymous routing services. But according to Elbakyan, fewer than 3% of Sci-Hub users are using those.

In the United States and Europe, Sci-Hub users concentrate where academic researchers are working. Over the 6-month period, 74,000 download requests came from IP addresses in New York City, home to multiple universities and scientific institutions. There were 19,000 download requests from Columbus, a city with less than a tenth of New York’s population, and 68,000 from East Lansing, Michigan, which has less than a hundredth. These are the homes of Ohio State University and Michigan State University (MSU), respectively.

The numbers for Ashburn, Virginia, the top U.S. city with nearly 100,000 Sci-Hub requests, are harder to interpret. The George Washington University (GWU) in Washington, D.C., has its science and technology campus there, but Ashburn is also home to Janelia Research Campus, the elite Howard Hughes Medical Institute outpost, as well as the servers of the Wikimedia Foundation, the headquarters of the online encyclopedia Wikipedia. Spokespeople for the latter two say their employees are unlikely to account for the traffic. The GWU press office responded defensively, sending me to an online statement that the university recently issued about the impact of journal subscription rate hikes on its library budget. “Scholarly resources are not luxury goods,” it says. “But they are priced as though they were.”

Several GWU students confessed to being Sci-Hub fans. When she moved from Argentina to the United States in 2014 to start her physics Ph.D., Natalia Clementi says her access to some key journals within the field actually worsened because GWU didn’t have subscriptions to them. Researchers in Argentina may have trouble obtaining some specialty journals, she notes, but “most of them have no problem accessing big journals because the government pays the subscription at all the public universities around the country.”

Even for journals to which the university has access, Sci-Hub is becoming the go-to resource, says Gil Forsyth, another GWU physics Ph.D. student. “If I do a search on Google Scholar and there’s no immediate PDF link, I have to click through to ‘Check Access through GWU’ and then it’s hit or miss,” he says. “If I put [the paper’s title or DOI] into Sci-Hub, it will just work.” He says that Elsevier publishes the journals that he has had the most trouble accessing.

The GWU library system “offers a document delivery system specifically for math, physics, chemistry, and engineering faculty,” I was told by Maralee Csellar, the university’s director of media relations. “Graduate students who want to access an article from the Elsevier system should work with their department chair, professor of the class, or their faculty thesis adviser for assistance.”

The intense Sci-Hub activity in East Lansing reveals yet another motivation for using the site. Most of the downloads seem to be the work of a few or even just one person running a “scraping” program over the December 2015 holidays, downloading papers at superhuman speeds. I asked Elbakyan whether those download requests came from MSU’s IP addresses, and she confirmed that they did. The papers are all from chemistry journals, most of them published by the American Chemical Society. So the apparent goal is to build a massive private repository of chemical literature. But why?

Bill Hart-Davidson, MSU’s associate dean for graduate education, suggests that the likely answer is “text-mining,” the use of computer programs to analyze large collections of documents to generate data. When I called Hart-Davidson, I suggested that the East Lansing Sci-Hub scraper might be someone from his own research team. But he laughed and said that he had no idea who it was. But he understands why the scraper goes to Sci-Hub even though MSU subscribes to the downloaded journals. For his own research on the linguistic structure of scientific discourse, Hart-Davidson obtained more than 100 years of biology papers the hard way—legally with the help of the publishers. “It took an entire year just to get permission,” says Thomas Padilla, the MSU librarian who did the negotiating. And once the hard drive full of papers arrived, it came with strict rules of use. At the end of each day of running computer programs on it from an offline computer, Padilla had to walk the resulting data across campus on a thumb drive for analysis with Hart-Davidson.

Yet Sci-Hub has drawbacks for text-mining research, Hart-Davidson says. The pirated papers are in unstructured PDF format, which is hard for programs to parse. But the bigger issue, he says, is that the data source is illegal. “How are you going to publish your work?” Then again, having a massive private repository of papers does allow a researcher to rapidly test hypotheses before bothering with libraries at all. And it’s all just a click away.

WHILE ELSEVIER WAGES a legal battle against Elbakyan and Sci-Hub, many in the publishing industry see the fight as futile. “The numbers are just staggering,” one senior executive at a major publisher told me upon learning the Sci-Hub statistics. “It suggests an almost complete failure to provide a path of access for these researchers.” He works for a company that publishes some of the most heavily downloaded content on Sci-Hub and requested anonymity so he could speak candidly.

For researchers at institutions that cannot afford access to journals, he says, the publishers “need to make subscription or purchase more reasonable for them.” Richard Gedye, the director of outreach programs for STM, the International Association of Scientific, Technical and Medical Publishers, disputes this. Institutions in the developing world that take advantage of the publishing industry’s outreach programs “have the kind of breadth of access to peer-reviewed scientific research that is pretty much the equivalent of typical institutions in North America or Europe.”

And for all the researchers at Western universities who use Sci-Hub instead, the anonymous publisher lays the blame on librarians for not making their online systems easier to use and educating their researchers. “I don’t think the issue is access—it’s the perception that access is difficult,” he says.

“I don’t agree,” says Ivy Anderson, the director of collections for the California Digital Library in Oakland, which provides journal access to the 240,000 researchers of the University of California system. The authentication systems that university researchers must use to read subscription journals from off campus, and even sometimes on campus with personal computers, “are there to enforce publisher restrictions,” she says.

Will Sci-Hub push the industry toward an open-access model, where reader authentication is unnecessary? That’s not clear, Harvard’s Suber says. Although Sci-Hub helps a great many researchers, he notes, it may also carry a “strategic cost” for the open-access movement, because publishers may take advantage of “confusion” over the legality of open-access scholarship in general and clamp down. “Lawful open access forces publishers to adapt,” he says, whereas “unlawful open access invites them to sue instead.”

EVEN IF ARRESTED, Elbakyan says Sci-Hub will not go dark. She has failsafes to keep it up and running, and user donations now cover the cost of Sci-Hub’s servers. She also notes that the entire collection of 50 million papers has been copied by others many times already. “[The papers] do not need to be downloaded again from universities.”

Indeed, the data suggest that the explosive growth of Sci-Hub is done. Elbakyan says that the proportion of download requests for papers not contained in the database is holding steady at 4.3%. If she runs out of credentials for pirating fresh content, that gap will grow again, however—and publishers and universities are constantly devising new authentication schemes that she and her supporters will need to outsmart. She even asked me to donate my own Science login and password—she was only half joking.

For Elbakyan herself, the future is even more uncertain. Elsevier is not only charging her with copyright infringement but with illegal hacking under the U.S. Computer Fraud and Abuse Act. “There is the possibility to be suddenly arrested for hacking,” Elbakyan admits. Others who ran afoul of this law have been extradited to the United States while traveling. And she is fully aware that another computer prodigy–turned-advocate, Aaron Swartz, was arrested on similar charges in 2011 after mass-downloading academic papers. Facing devastating financial penalties and jail time, Swartz hanged himself.

Like the rest of the scientific community, Elbakyan is watching the future of scholarly communication unfold fast. “I will see how all this turns out.”

Correction (28 April 2016): “Andrew Schwartz” has been corrected to “Andrew Swartz.”

Excessive empathy can impair understanding of others (Science Daily)

Date:
April 28, 2016
Source:
Julius-Maximilians-Universität Würzburg, JMU
Summary:
People who empathize easily with others do not necessarily understand them well. To the contrary: Excessive empathy can even impair understanding as a new study conducted by psychologists has established.

Excessive empathy can impair understanding as a new study conducted by psychologists from Würzburg and Leipzig has established. Credit: © ibreakstock / Fotolia

People who empathize easily with others do not necessarily understand them well. To the contrary: Excessive empathy can even impair understanding as a new study conducted by psychologists from Würzburg and Leipzig has established.

Imagine your best friend tells you that his girlfriend has just proposed “staying friends.” Now you have to accomplish two things: Firstly, you have to grasp that this nice sounding proposition actually means that she wants to break up with him and secondly, you should feel with your friend and comfort him.

Whether empathy and understanding other people’s mental states (mentalising) — i.e. the ability to understand what others know, plan and want — are interrelated has recently been examined by the psychologists Anne Böckler, Philipp Kanske, Mathis Trautwein, Franca Parianen-Lesemann and Tania Singer.

Anne Böckler has been a junior professor at the University of Würzburg’s Institute of Psychology since October 2015. Previously, the post-doc had worked in the Department of Social Neurosciences at the Max Planck Institute of Human Cognitive and Brain Sciences in Leipzig where she conducted the study together with her co-workers. In the scientific journal Social Cognitive and Affective Neuroscience, the scientists present the results of their work.

“Successful social interaction is based on our ability to feel with others and to understand their thoughts and intentions,” Anne Böckler explains. She says that it had been unclear previously whether and to what extend these two skills were interrelated — that is whether people who empathise easily with others are also capable of grasping their thoughts and intentions. According to the junior professor, the scientists also looked into the question of whether the neuronal networks responsible for these abilities interact.

Answers can be gleaned from the study conducted by Anne Böckler, Philipp Kanske and their colleagues at the Max Planck Institute in Leipzig within the scope of a large-scale study led by Tania Singer which included some 200 participants. The study enabled the scientists to prove that people who tend to be empathic do not necessarily understand other people well at a cognitive level. Hence, social skills seem to be based on multiple abilities that are rather independent of one another.

The study also delivered new insight as to how the different networks in the brain are orchestrated, revealing that networks crucial for empathy and cognitive perspective-taking interact with one another. In highly emotional moments — for example when somebody talks about the death of a close person — activation of the insula, which forms part of the empathy-relevant network, can have an inhibiting effect in some people on brain areas important for taking someone else’s perspective. And this in turn can cause excessive empathy to impair social understanding.

The participants to the study watched a number of video sequences in which the narrator was more or less emotional. Afterwards, they had to rate how they felt and how much compassion they felt for the person in the film. Then they had to answer questions about the video — for example what the persons could have thought, known or intended. Having thus identified persons with a high level of empathy, the psychologists looked at their portion among the test participants who had had good or poor results in the test about cognitive perspective-taking — and vice versa.

Using functional magnetic resonance imaging, the scientists observed which areas of the brain where active at what time.

The authors believe that the results of this study are important both for neuroscience and clinical applications. For example, they suggest that training aimed at improving social skills, the willingness to empathise and the ability to understand others at the cognitive level and take their perspective should be promoted selectively and separately of one another. The group in the Department of Social Neurosciences in Leipzig is currently working on exactly this topic within the scope of the ReSource project, namely how to specifically train different social skills.


Journal Reference:

  1. Artyom Zinchenko, Philipp Kanske, Christian Obermeier, Erich Schröger, Sonja A. Kotz. Emotion and goal-directed behavior: ERP evidence on cognitive and emotional conflictSocial Cognitive and Affective Neuroscience, 2015; 10 (11): 1577 DOI: 10.1093/scan/nsv050

N.F.L.’s Flawed Concussion Research and Ties to Tobacco Industry (New York Times)

The National Football League was on the clock.

With several of its marquee players retiring early after a cascade of frightening concussions, the league formed a committee in 1994 that would ultimately issue a succession of research papers playing down the danger of head injuries. Amid criticism of the committee’s work, physicians brought in later to continue the research said the papers had relied on faulty analysis.

Now, an investigation by The New York Times has found that the N.F.L.’s concussion research was far more flawed than previously known.

For the last 13 years, the N.F.L. has stood by the research, which, the papers stated, was based on a full accounting of all concussions diagnosed by team physicians from 1996 through 2001. But confidential data obtained by The Times shows that more than 100 diagnosed concussions were omitted from the studies — including some severe injuries to stars like quarterbacks Steve Young and Troy Aikman. The committee then calculated the rates of concussions using the incomplete data, making them appear less frequent than they actually were.

After The Times asked the league about the missing diagnosed cases — more than 10 percent of the total — officials acknowledged that “the clubs were not required to submit their data and not every club did.” That should have been made clearer, the league said in a statement, adding that the missing cases were not part of an attempt “to alter or suppress the rate of concussions.”

One member of the concussion committee, Dr. Joseph Waeckerle, said he was unaware of the omissions. But he added: “If somebody made a human error or somebody assumed the data was absolutely correct and didn’t question it, well, we screwed up. If we found it wasn’t accurate and still used it, that’s not a screw-up; that’s a lie.”

These discoveries raise new questions about the validity of the committee’s findings, published in 13 peer-reviewed articles and held up by the league as scientific evidence that brain injuries did not cause long-term harm to its players. It is also unclear why the omissions went unchallenged by league officials, by the epidemiologist whose job it was to ensure accurate data collection and by the editor of the medical journal that published the studies.

In 2013, the N.F.L. agreed to a $765 million settlement of a lawsuit in which retired players accused league officials of covering up the risks of concussions. Some players have appealed the settlement, asking for an examination of the committee’s concussion research.

Dr. Joseph Waeckerle, speaking to quarterback Joe Montana in 1994, was the Chiefs’ team physician and a member of the N.F.L.’s concussion committee. CreditAssociated Press 

Some retired players have likened the N.F.L.’s handling of its health crisis to that of the tobacco industry, which was notorious for using questionable science to play down the dangers of cigarettes.

Concussions can hardly be equated with smoking, which kills 1,300 people a day in the United States, and The Times has found no direct evidence that the league took its strategy from Big Tobacco. But records show a long relationship between two businesses with little in common beyond the health risks associated with their products.

In a letter to The Times, a lawyer for the league said, “The N.F.L. is not the tobacco industry; it had no connection to the tobacco industry,” which he called “perhaps the most odious industry in American history.”

Still, the records show that the two businesses shared lobbyists, lawyers and consultants. Personal correspondence underscored their friendships, including dinner invitations and a request for lobbying advice.

In 1997, to provide legal oversight for the committee, the league assigned Dorothy C. Mitchell, a young lawyer who had earlier defended the Tobacco Institute, the industry trade group. She had earned the institute’s “highest praise” for her work.

A co-owner of the Giants, Preston R. Tisch, also partly owned a leading cigarette company, Lorillard, and was a board member of both the Tobacco Institute and the Council for Tobacco Research, two entities that played a central role in misusing science to hide the risks of cigarettes.

The N.F.L.’s concussion committee began publishing its findings in 2003 in the medical journal Neurosurgery. Although the database used in the studies contained numerical codes for teams and players, The Times decoded it by cross-referencing team schedules and public injury reports.

The N.F.L.’s concussion studies have faced questions since they were published, but even the league’s harshest critics have never suggested, and no evidence has ever arisen, that the underlying data set could be so faulty.

“One of the rules of science is that you need to have impeccable data collection procedures,” said Bill Barr, a neuropsychologist who once worked for the Jets and who has in the past criticized the committee’s work.

By excluding so many concussions, Mr. Barr said, “You’re not doing science here; you are putting forth some idea that you already have.”

The Work Begins

In an introduction to the first of the concussion committee’s papers, the league’s commissioner at the time, Paul Tagliabue, acknowledged the need for “independent scientific research” to better understand the risks of concussions.

“As we looked more deeply into the specific area of concussions, we realized that there were many more questions than answers,” Mr. Tagliabue wrote.

The committee’s chairman, Dr. Elliot Pellman, the team physician for the Jets, emphasized that his group aimed to produce research that was “independent” and “meticulous.”

In fact, most of the dozen committee members were associated with N.F.L. teams, as a physician, neurosurgeon or athletic trainer, which meant they made decisions about player care and then studied whether those decisions were proper. Still, the researchers stated unambiguously — in each of their first seven peer-reviewed papers — that their financial or business relationships had not compromised their work.

The committee said it analyzed all concussions diagnosed by team medical staffs from 1996 through 2001 — 887 in all. Concussions were recorded by position, type of play, time missed, even the brand of helmet.

The committee’s statements emphasized the completeness of the data.

“It was understood that any player with a recognized symptom of head injury, no matter how minor, should be included in the study,” one paper said.

And in confidential peer-review documents, the committee wrote that “all N.F.L. teams participated” and that “all players were therefore part of this study.”

Those statements are contradicted by the database.

The Times found that most teams failed to report all of their players’ concussions. Over all, at least 10 percent of head injuries diagnosed by team doctors were missing from the study, including two sustained by Jets receiver Wayne Chrebet, who retired several years later after more concussions. Dr. Pellman, the Jets’ physician, led the research and was the lead author on every paper.

Read the whole text here.

A nova partícula que pode mudar o que sabemos sobre o Universo (BBC Brasil)

Da BBC Mundo – 21 março 2016

 

Reuters

Se for confirmada a existência de uma nova partícula, especialistas acreditam que poderá ser aberta uma porta para um mundo ‘desconhecido e inexplorado’ (Reuters)

O Grande Colisor de Hádrons (LHC, na sigla em inglês) – um acelerador de partículas gigantesco que fica na fronteira entre a França e a Suíça – causou fortes emoções entre físicos teóricos, uma comunidade que geralmente é muito cautelosa quando se trata de novas descobertas.

O motivo: “batidinhas” detectadas pelo Grande Colisor de Hádrons. Essas batidas, evidenciadas nos dados que resultam da aceleração dos prótons, podem sinalizar a existência de uma nova e desconhecida partícula seis vezes maior do que o Bóson de Higgs (a chamada “partícula de Deus”).

E isso, para o físico teórico Gian Giudice, significaria “uma porta para um mundo desconhecido e inexplorado”.

“Não é a confirmação de uma teoria já estabelecida”, disse à revista New Scientisto pesquisador, que também é trabalha na Organização Europeia para Investigação Nuclear (CERN).

A emoção dos cientistas começou quando, em dezembro de 2015, os dois laboratórios que trabalham no LHC de forma independente registraram os mesmos dados depois de colocar o colisor para funcionar praticamente na capacidade máxima (o dobro de energia necessária para detectar o Bóson de Higgs).

Os dados registrados não podem ser explicados com o que se sabe até hoje das leis da física.

Depois do anúncio desses novos dados foram publicados cerca de 280 ensaios que tentam explicar o que pode ser esse sinal – e nenhum deles descartou a teoria de que se trata de uma nova partícula.

Alguns cientistas sugerem que a partícula pode ser uma prima pesada do Bóson de Higgs, descoberto em 2012 e que explica por que a matéria tem massa.

Outros apresentaram a hipótese de o Bóson de Higgs ser feito de partículas menores. E ainda há o grupo dos que pensam que essas “batidinhas” podem ser de um gráviton, a partícula encarregada de transmitir a força da gravidade.

Se realmente for um gráviton, essa descoberta será um marco, porque até hoje não tinha sido possível conciliar a gravidade com o modelo padrão da física de partículas.

Extraordinário?

Para os especialistas, o fato de que ninguém conseguiu refutar o que os físicos detectaram é um sinal de que podemos estar perto de descobrir algo extraordinário.

“Se isso se provar verdadeiro, será uma (nota) dez na escala Richter dos físicos de partículas”, disse ao jornal britânico The Guardian o especialista John Ellis, do King’s College de Londres. Ele também já foi chefe do departamento de teoria da Organização Europeia para a Investigação Nuclear. “Seria a ponta de um iceberg de novas formas de matéria.”

Mesmo com toda a animação de Ellis, os cientistas não querem se precipitar.

AFP

Image captionEsta nova partícula seria seis vezes maior que o Bóson de Higgs (AFP)

Quando o anúncio foi feito pela primeira vez, alguns pensaram que tudo não passava de uma terrível coincidência que aconteceu devido à forma como o LHC funciona.

Duas máquinas de raios de prótons são aceleradas chegando quase à velocidade da luz. Elas vão em direções diferentes e se chocam em quatro pontos, criando padrões de dados diferentes.

Essas diferenças, batidas ou perturbações na estatística são o que permitem demonstrar a presença de partículas.

Mas estamos falando de bilhões de perturbações registradas a cada experimento, o que torna provável um erro estatístico.

Porém, o fato de que os dois laboratórios tenham detectado a mesma batida é o que faz com que os cientistas prestem mais atenção ao tema.

Boas notícias

PA

O Grande Colisor de Hádrons volta a funcionar nesta semana

Além disso, recentemente os cientistas dos laboratórios CMC e Atlas apresentaram novas provas depois de refinar e recalibrar seus resultados.

E nenhuma das equipes pôde atribuir a anomalia detectada a um eventual erro estatístico.

São boas notícias para os especialistas que acreditam que essa descoberta seja o início de algo muito grande.

O lado ruim é que nenhum dos laboratórios conseguiu explicar o que é esta misteriosa partícula. São necessárias mais experiências para qualificar o evento como um “descobrimento”.

O lado bom é que não será preciso esperar muito para ver o fim da história.

Nesta semana, o Grande Colisor de Hádrons sairá de seu período de hibernação para voltar a disparar prótons em direções diferentes.

Thinkstock

Uma das hipóteses é que esta nova partícula estaria relacionada com a gravidade (Thinkstock)

Nos próximos meses o colisor oferecerá o dobro de informação em comparação ao que os cientistas têm até agora.

E se estima que, em agosto, eles poderão saber o que é essa nova e promissora partícula.

Statisticians Found One Thing They Can Agree On: It’s Time To Stop Misusing P-Values (FiveThirtyEight)

Footnotes

  1. Even the Supreme Court has weighed in, unanimously ruling in 2011 that statistical significance does not automatically equate to scientific or policy importance. ^

Christie Aschwanden is FiveThirtyEight’s lead writer for science.

O painel do clima quer falar com você (Observatório do Clima)

15/02/2016

O australiano John Cook, editor do site Skeptical Science, fala durante encontro do IPCC em Oslo. Foto: Claudio Angelo/OC

O australiano John Cook, editor do site Skeptical Science, fala durante encontro do IPCC em Oslo. Foto: Claudio Angelo/OC

IPCC faz sua primeira reunião sobre comunicação disposto a mudar a cultura do segredo e a linguagem arcana de seus relatórios – mas esbarra numa estrutura de governança conservadora.

Por Claudio Angelo, do OC, em Oslo –

Luís Bernardo Valença, protagonista do romance Equador, do português Miguel de Souza Tavares, recebe do rei de Portugal uma missão virtualmente impossível: assumir o governo de São Tomé e Príncipe para convencer os compradores ingleses de cacau de que não existe trabalho escravo nas ilhas – e, ao mesmo tempo, garantir que o sistema de trabalho escravo não mude, de forma a não prejudicar a economia local.

A história guarda uma analogia com o momento pelo qual passa o IPCC, o painel do clima da ONU, que na semana passada realizou em Oslo, na Noruega, a primeira reunião de sua história dedicada à comunicação. O comitê internacional de cientistas, agraciado com o Prêmio Nobel da Paz em 2007, reconhece que a forma como se comunica com seus diversos públicos precisa mudar: os sumários de seus relatórios de avaliação são indecifráveis para leigos e para os próprios formuladores de políticas públicas a quem supostamente se dedicam; as decisões são tomadas em reuniões fechadas, o que alimenta rumores de que o painel é ora uma conspiração de ambientalistas para distorcer a ciência, ora uma vítima de ações de governos para aguar conclusões impactantes sobre a gravidade das mudanças do clima; a maneira como a incerteza e o risco são expressos pelo painel é bizantina.

A vontade de abrir-se mais ao público, porém, esbarra no conservadorismo do próprio painel, que preserva um modo de operação da década de 1990, quando lançou seu primeiro relatório de avaliação). Os métodos, as regras e os rituais do IPCC precisam permanecer os mesmos – e seus líderes parecem não querer abrir mão disso. Ao mesmo tempo, eles mesmos pedem mais transparência e mais acessibilidade. Qual é a chance de isso dar certo?

O próprio encontro de Oslo pode ser um termômetro. Foram convidados a participar cerca de 50 especialistas em comunicação do mundo inteiro e mais duas dezenas de autoridades do próprio painel. A reunião foi a primeira em toda a história do IPCC a ser transmitida ao vivo pela internet. Mas isso que só aconteceu depois da cobrança de algumas personalidades da área, como o jornalista americano Andrew Revkin. Ela foi aberta também pela internet pelo presidente do painel, o sul-coreano Hoesung Hwang. Os co-presidentes dos três grupos de trabalho que cuidam de avaliar os três grandes aspectos da mudança do clima (a base física, impactos e vulnerabilidades e mitigação) estiveram presentes o tempo todo, assim como dois dos três vice-presidentes, a americana Ko Barrett e o malês Youba Sokona. Cientistas que coordenaram a produção do AR5, o quinto relatório do IPCC, também estiveram nos dois dias de encontro.

Um consenso importante formado em Oslo foi que a comunicação precisa integrar o processo de produção dos relatórios desde o início. O modelo atual seguido pelo IPCC consiste em preparar primeiro os relatórios e então divulgá-los aos diversos públicos – tomadores de decisão, imprensa e o público geral. É o que Paul Lussier, especialista em mídia da Universidade Yale, chamou de “passar batom num porco” durante sua apresentação.

Enfeitar o suíno, até aqui, tem sido a receita para o fiasco de comunicação do painel. Isso foi mais ou menos matematicamente demonstrado pelo cientista ambiental português Suraje Dessai, professor da Universidade de Leeds, no Reino Unido, e coautor do AR5 (Quinto Relatório de Avaliação do IPCC, publicado entre 2013 e 2014). Uma análise dos sumários do IPCC conduzida por Dessai e colegas com a ajuda de softwares que olham simplicidade e legibilidade foi publicada no ano passado no periódico Nature Climate Change. O trabalho mostrou que não apenas o IPCC é menos legível do que outras publicações científicas, como também o grau de compreensibilidade dos sumários despencou de 1990 para cá.

Uma das recomendações feitas ao final do encontro, e que serão encaminhadas à plenária do IPCC em abril, é para que se incorporem comunicadores profissionais, jornalistas de ciência, psicólogos e antropólogos desde a chamada fase de “definição do escopo” dos relatórios. Isso começaria no AR6, o Sexto Relatório de Avaliação do IPCC, que deverá ser publicado em algum momento entre 2020 e 2022. Essa própria definição, que hoje é feita pelas autoridades do painel e pelos governos, poderá vir a ser realizada numa espécie de consulta pública – na qual diferentes atores, desde a sociedade civil até empresários e mesmo crianças, digam o que querem que o painel avalie sobre a mudança climática. Tamanha abertura seria uma revolução no IPCC, rompendo a lógica professoral que impera hoje na definição das perguntas às quais os relatórios tentam responder.

Outra sugestão, apresentada por um grupo que discutiu as relações entre o IPCC e os meios de comunicação, foi para que os rascunhos dos sumários executivos sejam abertos para o público antes da aprovação final pelos governos. Cada sumário passa por uma série de rascunhos até chegar ao formato final de revisão, que é enviado aos governos para comentários. Os sumários são aprovados por governos e cientistas na plenária do IPCC, onde recebem alterações finais. A regra é que os governos modifiquem muito o texto, mas – e este é um “mas” importante, porque é o que define a credibilidade do IPCC – a palavra final é sempre dos cientistas.

Os rascunhos hoje não são públicos, mas qualquer pessoa pode solicitar ao IPCC fazer parte do comitê de revisores – e ganham, assim, acesso aos documentos. Em 2013, um negacionista do clima vazou em seu blog uma versão do AR5, alegando que o painel estava escondendo evidências de que o aquecimento global se devia a raios cósmicos (não estava). A proposta apresentada em Oslo foi para que os rascunhos de revisão fossem tornados públicos, de forma a minimizar o impacto de vazamentos e a conter desinformação na imprensa.

Outras recomendações feitas em Oslo vão de dar ao site do IPCC uma nova interface pública até produzir infográficos animados da ciência avaliada pelos relatórios.

Na prática, porém, a teoria é outra: um dos dogmas do IPCC é que ele não pode produzir prescrições políticas, ou seja, precisa se limitar a dizer aos países o que acontece com o mundo em cada cenário de emissões e o que é preciso fazer para atingir níveis de emissão x, y ou z no futuro. A rigor, o painel do clima não pode incitar as pessoas a combater a mudança climática – isso seria uma posição de militância. Pior, entre os mais de 150 governos que integram o IPCC e de fato mandam nele (daí a sigla significar Painel Intergovernamental sobre Mudanças Climáticas) há os que não querem resolver o problema, porque vivem da sua causa – os combustíveis fósseis. Essas são amarras importantes à comunicação.

Outro problema é que o IPCC ainda vive no século XX, num sentido bem real. Enquanto a comunicação hoje é digital, o painel do clima decidiu, por consenso, que seus relatórios são aprovados linha por linha pelos governos – e isso significa caneta e papel. Não há nem sequer método para submeter um infográfico animado à plenária, caso alguém ache que é o caso usar esse tipo de recurso no AR6. Sugestões de ter uma equipe de vídeo acompanhando o “making of” dos relatórios foram rejeitadas no passado, porque algumas pessoas no painel não queriam que ninguém ficasse “espionando” seu trabalho. E por aí vai.

O IPCC foi criado em 1988, mas só ganhou uma estratégia de comunicação em 2012. Tem um longo aprendizado pela frente e precisa começar de algum lugar. Pessoas com quem conversei em Oslo disseram duvidar que a maior parte das recomendações seja acatada. Mas é auspicioso, num momento em que o mundo se prepara para implementar o Acordo de Paris, que o templo do conhecimento climático esteja disposto a embarcar na tarefa da comunicação. Ela é mais necessária do que nunca agora. (Observatório do Clima/ #Envolverde)

* O jornalista viajou a convite do IPCC.

** Publicado originalmente no site Observatório do Clima.

Uma década de avanços em biotecnologia (Folha de S.Paulo)

11 de fevereiro de 2016

Lei de Biossegurança completa 10 anos dialogando com as mais recentes descobertas da ciência

Walter Colli – Instituto de Química, Universidade de São Paulo

Ao longo de 2015, uma silenciosa revolução biotecnológica aconteceu no Brasil. Neste ano a Comissão Técnica Nacional de Biossegurança (CTNBio) analisou e aprovou um número recorde de tecnologias aplicáveis à agricultura, medicina e produção de energia. O trabalho criterioso dos membros da CTNBio avaliou como seguros para a saúde humana e animal e para o ambiente 19 novos transgênicos, dentre os quais 13 plantas, três vacinas e três microrganismos ou derivados.

A CTNBio, priorizando o rigor nas análises de biossegurança e atenta às necessidades de produzir alimentos de maneira mais sustentável aprovou, no ano passado, variedades de soja, milho e algodão tolerantes a herbicidas com diferentes métodos de ação. Isso permitirá que as sementes desenvolvam todo seu potencial e que os produtores brasileiros tenham mais uma opção para a rotação de tecnologias no manejo de plantas daninhas. Sem essa ferramenta tecnológica, os agricultores ficariam reféns das limitações impostas pelas plantas invasoras. As tecnologias de resistência a insetos proporcionam benefícios semelhantes.

Na área da saúde, a revolução diz respeito aos métodos de combate a doenças que são endêmicas das regiões tropicais. Mais uma vez, mostrando-se parceira da sociedade, a CTNBio avaliou a biossegurança de duas vacinas recombinantes contra a Dengue em regime de urgência e deu parecer favorável a elas. Soma-se a estes esforços a aprovação do Aedes aegypti transgênico. O mosquito geneticamente modificado aprovado em 2014 tem se mostrado um aliado no combate ao inseto que, além de ser vetor da dengue, também está associado a casos de transmissão dos vírus Zika, Chikungunya e da febre amarela.

Nos últimos 10 anos, até o momento, o advento da nova CTNBio pela Lei 11.105 de 2005 – a Lei de Biossegurança – proporcionou a aprovação comercial de 82 Organismos Geneticamente Modificados (OGM): 52 eventos em plantas; 20 vacinas veterinárias; 7 microrganismos; 1 mosquito Aedes aegypti; e 2 vacinas para uso humano contra a Dengue. Essas liberações comerciais são a maior prova de que o Brasil lança mão da inovação para encontrar soluções para os desafios da contemporaneidade.

Entretanto, é necessário enfatizar que assuntos não relacionados com Ciência também se colocaram, como em anos anteriores, no caminho do desenvolvimento da biotecnologia em 2015. Manifestantes anti-ciência invadiram laboratórios e destruíram sete anos de pesquisas com plantas transgênicas de eucalipto e grupos anti-OGM chegaram a interromper reuniões da CTNBio, pondo abaixo portas com ações truculentas. Diversas inverdades foram publicadas na tentativa de colocar em dúvida a segurança e as contribuições que a transgenia vem dando para a sociedade. A ação desses grupos preocupa, pois, se sua ideologia for vitoriosa, tanto o progresso científico quanto o PIB brasileiros ficarão irreversivelmente prejudicados.

Hoje, a nossa Lei de Biossegurança é tida internacionalmente como um modelo de equilíbrio entre o rigor nas análises técnicas e a previsibilidade institucional necessária para haver o investimento. O reconhecimento global, o diálogo com a sociedade e a legitimidade dos critérios técnicos mostram que esses 10 anos são apenas o início de uma longa história de desenvolvimento e inovação no Brasil.

Is human behavior controlled by our genes? Richard Levins reviews ‘The Social Conquest of Earth’ (Climate & Capitalism)

“Failing to take class division into account is not simply a political bias. It also distorts how we look at human evolution as intrinsically bio-social and human biology as socialized biology.”

 

August 1, 2012

Edward O. Wilson. The Social Conquest of Earth. Liverwright Publishing, New York, 2012

reviewed by Richard Levins

In the 1970s, Edward O. Wilson, Richard Lewontin, Stephen Jay Gould and I were colleagues in Harvard’s new department of Organismic and Evolutionary Biology. In spite of our later divergences, I retain grateful memories of working in the field with Ed, turning over rocks, sharing beer, breaking open twigs, putting out bait (canned tuna fish) to attract the ants we were studying..

We were part of a group that hoped to jointly write and publish articles offering a common view of evolutionary science, but that collaboration was brief, largely because Lewontin and I strongly disagreed with Wilson’s Sociobiology.

Reductionism and Sociobiology

Although Wilson fought hard against the reduction of biology to the study of molecules, his holism stopped there. He came to promote the reduction of social and behavioral science to biology. In his view:

“Our lives are restrained by two laws of biology: all of life’s entities and processes are obedient to the laws of physics and chemistry; and all of life’s entities and processes have arisen through evolution and natural selection.” [Social Conquest, p. 287]

This is true as far as it goes but fails in two important ways.

First, it ignores the reciprocal feedback between levels. The biological creates the ensemble of molecules in the cell; the social alters the spectrum of molecules in the biosphere; biological activity creates the biosphere itself and the conditions for the maintenance of life.

Second, it doesn’t consider how the social level alters the biological: our biology is a socialized biology.

Higher (more inclusive) levels are indeed constrained by the laws at lower levels of organization, but they also have their own laws that emerge from the lower level yet are distinct and that also determine which chemical and physical entities are present in the organisms. In new contexts they operate differently.

Thus for example we, like a few other animals including bears, are omnivores. For some purposes such as comparing digestive systems that’s an adequate label. But we are omnivores of a special kind: we not only acquire food by predation, but we also producefood, turning the inedible into edible, the transitory into stored food. This has had such a profound effect on our lives that it is also legitimate to refer to us as something new, productivores.

The productivore mode of sustenance opens a whole new domain: the mode of production. Human societies have experienced different modes of production and ways to organize reproduction, each with its own dynamics, relations with the rest of nature, division into classes, and processes which restore or change it when it is disturbed.

The division of society into classes changes how natural selection works, who is exposed to what diseases, who eats and who doesn’t eat, who does the dishes, who must do physical work, how long we can expect to live. It is no longer possible to prescribe the direction of natural selection for the whole species.

So failing to take class division into account is not simply a political bias. It also distorts how we look at human evolution as intrinsically bio-social and human biology as socialized biology.

The opposite of the genetic determinism of sociobiology is not “the blank slate” view that claims that our biological natures were irrelevant to behavior and society. The question is, what about our animal heritage was relevant?

We all agree that we are animals; that as animals we need food; that we are terrestrial rather than aquatic animals; that we are mammals and therefore need a lot of food to support our high metabolic rates that maintain body temperature; that for part of our history we lived in trees and acquired characteristics adapted to that habitat, but came down from the trees with a dependence on vision, hands with padded fingers, and so on. We have big brains, with regions that have different major functions such as emotions, color vision, and language.

But beyond these general capacities, there is widespread disagreement about which behaviors or attitudes are expressions of brain structure. The amygdala is a locus of emotion, but does it tell us what to be angry or rejoice about? It is an ancient part of our brains, but has it not evolved in response to what the rest of the brain is doing? There is higher intellectual function in the cortex, but does it tell us what to think about?

Every part of an organism is the environment for the rest of the organism, setting the context for natural selection. In contrast to this fluid viewpoint, phrases such as “hard-wired” have become part of the pop vocabulary, applied promiscuously to all sorts of behaviors.

In a deeper sense, asking if something is heritable is a nonsense question. Heritability is always a comparison: how much of the difference between humans and chimps is heritable? What about the differences between ourselves and Neanderthals? Between nomads and farmers?

Social Conquest of Earth

The Social Conquest of Earth, Ed Wilson’s latest book, continues his interest in the “eusocial” animals – ants, bees and others that live in groups with overlapping generations and a division of labor that includes altruistic behavior. As the title shows. he also continues to use the terminology of conquest and domination, so that social animals “conquer” the earth, their abundance makes them “dominate.”

The problem that Wilson poses in this book is first, why did eusociality arise at all, and second, why is it so rare?

Wilson is at his best when discussing the more remote past, the origins of social behavior 220 million years ago for termites, 150 million years for ants, 70-80 million years for humble bees and honey bees.

But as he gets closer to humanity the reductionist biases that informed Sociobiology reassert themselves. Once again Wilson argues that brain architecture determines what people do socially – that war, aggression, morality, honor and hierarchy are part of “human nature.”

Rejecting kin selection

A major change, and one of the most satisfying parts of the book, is his rejection of kin selection as a motive force of social evolution, a theory he once defended strongly.

Kin selection assumed that natural selection acts on genes. A gene will be favored if it results in enhancing its own survival and reproduction, but it is not enough to look at the survival of the individual. If my brother and I each have 2 offspring, a shared gene would be doubled in the next generation. But if my brother sacrifices himself so that I might leave 5 offspring while he leaves none, our shared gene will increase 250%.

Therefore, argued the promoters of this theory, the fitness that natural selection increases has to be calculated over a whole set of kin, weighted by the closeness of their relationship. Mathematical formulations were developed to support this theory. Wilson found it attractive because it appeared to support sociobiology.

However, plausible inference is not enough to prove a theory. Empirical studies comparing different species or traits did not confirm the kin selection hypothesis, and a reexamination of its mathematical structure (such as the fuzziness of defining relatedness) showed that it could not account for the observed natural world. Wilson devotes a lot of space to refuting kin selection because of his previous support of it: it is a great example of scientific self-correction.

Does group selection explain social behaviour?

Wilson has now adopted another model in which the evolution of sociality is the result of opposing processes of ordinary individual selection acting within populations, and group selection acting between populations. He invokes this model account to for religion, morality, honor and other human behaviors.

He argues that individual selection promotes “selfishness” (that is, behavior that enhances individual survival) while group selection favors cooperative and “altruistic” behavior. The two forms of selection oppose each other, and that results in our mixed behaviors.

“We are an evolutionary chimera living on intelligence steered by the demands of animal instinct. This is the reason we are mindlessly dismantling the biosphere and with it, our own prospects for permanent existence.” [p.13]

But this simplistic reduction of environmental destruction to biology will not stand. Contrary to Wilson, the destruction of the biosphere is not “mindless.” It is the outcome of interactions in the noxious triad of greed, poverty, and ignorance, all produced by a socio-economic system that must expand to survive.

For Wilson, as for many environmentalists, the driver of ecological destruction is some generic “we,” who are all in the same boat. But since the emergence of classes after the adoption of agriculture some 8-10,000 years ago it is no longer appropriate to talk of a collective “we.”

The owners of the economy are willing to use up resources, pollute the environment, debase the quality of products, and undermine the health of the producers out of a kind of perverse economic rationality. They support their policies with theories such as climate change denial or doubting the toxicity of pesticides, and buttress it with legislation and court decisions.

Evolution and religion

The beginning and end of the book, a spirited critique of religion as possibly explaining human nature, is more straightforwardly materialist than the view supported by Stephen J. Gould, who argued that religion and science are separate magisteria that play equal roles in human wellbeing.

But Wilson’s use of evidence is selective.

For example, he argues that religion demands absolute belief from its followers – but this is true only of Christianity and Islam. Judaism lets you think what you want as long as you practice the prescribed rituals, Buddhism doesn’t care about deities or the afterlife.

Similarly he argues that creation myths are a product of evolution:

“Since paleolithic times … each tribe invented its own creation myths… No tribe could long survive without a creation myth… The creation myth is a Darwinian device for survival.” [p. 8]

But the ancient Israelites did not have an origin myth when they emerged as a people in the hills of Judea around 1250 B.C.E. Although it appears at the beginning of the Bible, the Israelites did not adapt the Book of Genesis from Babylonian mythology until four centuries after Deuteronomy was written, after they had survived 200 years as a tribal confederation, two kingdoms and the Assyrian and Babylonian conquests— by then the writing of scripture was a political act, not a “Darwinian device for survival.”

Biologizing war

In support of his biologizing of “traits,” Wilson reviews recent research that appears to a show a biological basis for the way people see and interpret color, for the incest taboo, and for the startle response – and then asserts that inherited traits include war, hierarchy, honor and such. Ignoring the role of social class, he views these as universal traits of human nature.

Consider war. Wilson claims that war reflects genes for group selection. “A soldier going into battle will benefit his country but he runs a higher risk of death than one who does not.” [p. 165]

But soldiers don’t initiate conflict. We know in our own times that those who decide to make war are not those who fight the wars – but, perhaps unfortunately, sterilizing the general staff of the Pentagon and of the CIA would not produce a more peaceful America.

The evidence against war as a biological imperative is strong. Willingness to fight is situational.

Group selection can’t explain why soldiers have to be coerced into fighting, why desertion is a major problem for generals and is severely punished, or why resistance to recruitment is a major problem of armies. In the present militarist USA, soldiers are driven to join up through unemployment and the promises of benefits such as learning skills and getting an education and self-improvement. No recruitment posters offer the opportunity to kill people as an inducement for signing up.

The high rates of surrender and desertion of Italian soldiers in World War II did not reflect any innate cowardice among Italians but a lack of fascist conviction. The very rarity of surrender by Japanese soldiers in the same war was not a testimony to greater bravery on the part of the Japanese but of the inculcated combination of nationalism and religion.

As the American people turned against the Vietnam war, increased desertions and the killing of officers by the soldiers reflected their rejection of the war.

The terrifying assaults of the Vikings during the middle ages bear no resemblance to the mellow Scandinavian culture of today, too short a time for natural selection to transform national character.

The attempt to make war an inherited trait favored by natural selection reflects the sexism that has been endemic in sociobiology. It assumes that local groups differed in their propensity for aggression and prowess in war. The victorious men carry off the women of the conquered settlements and incorporate them into their own communities. Therefore the new generation has been selected for greater military success among the men. But the women, coming from a defeated, weaker group, would bring with them their genes for lack of prowess, a selection for military weakness! Such a selection process would be self-negating.

Ethnocentrism

Wilson also considers ethnocentrism to be an inherited trait: group selection leads people to favor members of their own group and reject outsiders.

The problem is that the lines between groups vary under different circumstances. For example, in Spanish America, laws governing marriage included a large number of graded racial categories, while in North America there were usually just two. What’s more, the category definitions are far from permanent: at one time, the Irish were regarded as Black, and the whiteness of Jews was questioned.

Adoption, immigration, mergers of clans also confound any possible genetic basis for exclusion.

Hierarchy

Wilson draws on the work of Herbert Simon to argue that hierarchy is a result of human nature: there will always be rulers and ruled. His argument fails to distinguish between hierarchy and leadership.

There are other forms of organization possible besides hierarchy and chaos, including democratic control by the workers who elect the operational leadership. In some labor unions, leaders’ salaries are pegged to the median wage of the members. In University departments the chairmanship is often a rotating task that nobody really wants. When Argentine factory owners closed their plants during the recession, workers in fact seized control and ran them profitably despite police sieges.

Darwinian behavior?

Wilson argues that “social traits” evolved through Darwinian natural selection. Genes that promoted behaviors that helped the individual or group to survive were passed on; genes that weakened the individual or group were not. The tension between individual and group selection decided which traits would be part of our human nature.

But a plausible claim that a trait might be good for people is not enough to explain its origin and survival. A gene may become fixed in a population even if it is harmful, just by the random genetic changes that we know occur. Or a gene may be harmful but be dragged along by an advantageous gene close to it on the same chromosome.

Selection may act in different directions in different subpopulations, or in different habitats, or in differing environmental. Or the adaptive value of a gene may change with its prevalence or the distribution of ages in the population, itself a consequence of the environment and population heterogeneity.

For instance, Afro-Americans have a higher death rate from cancer than Euro-Americans. In part this reflects the carcinogenic environments they have been subjected to, but there is also a genetic factor. It is the combination of living conditions and genetics that causes higher mortality rates.

* * *

Obviously I am not arguing that evolution doesn’t happen. The point is that we need a much better argument than just a claim that some genotype might be beneficial. And we need a much more rigorous understanding of the differences and linkages between the biological and social components of humanity’s nature. Just calling some social behavior a “trait” does not make it heritable.

In a book that attempts such a wide-ranging panorama of human evolution, there are bound to be errors. But the errors in The Social Conquest of Earth form a pattern: they reduce social issues to biology, and they insist on our evolutionary continuity with other animals while ignoring the radical discontinuity that made us productivores and divided us into classes.

First worldwide survey of religion and science: No, not all scientists are atheists (Science Daily)

Date: December 3, 2015

Source: Rice University

Summary: Are all scientists atheists? Do they believe religion and science can co-exist? These questions and others were addressed in the first worldwide survey of how scientists view religion.


A new survey challenges longstanding assumptions about the science-faith interface. While it is commonly assumed that most scientists are atheists, the global perspective resulting from the study shows that this is simply not the case. Credit: © BillionPhotos.com / Fotolia

Are all scientists atheists? Do they believe religion and science can co-exist? These questions and others were addressed in the first worldwide survey of how scientists view religion, released today by researchers at Rice University.

“No one today can deny that there is a popular ‘warfare’ framing between science and religion,” said the study’s principal investigator, Elaine Howard Ecklund, founding director of Rice University’s Religion and Public Life Program and the Herbert S. Autrey Chair in Social Sciences. “This is a war of words fueled by scientists, religious people and those in between.”

The study’s results challenge longstanding assumptions about the science-faith interface. While it is commonly assumed that most scientists are atheists, the global perspective resulting from the study shows that this is simply not the case.

“More than half of scientists in India, Italy, Taiwan and Turkey self-identify as religious,” Ecklund said. “And it’s striking that approximately twice as many ‘convinced atheists’ exist in the general population of Hong Kong, for example, (55 percent) compared with the scientific community in this region (26 percent).”

The researchers did find that scientists are generally less religious than a given general population. However, there were exceptions to this: 39 percent of scientists in Hong Kong identify as religious compared with 20 percent of the general population of Hong Kong, and 54 percent of scientists in Taiwan identify as religious compared with 44 percent of the general population of Taiwan. Ecklund noted that such patterns challenge longstanding assumptions about the irreligious character of scientists around the world.

When asked about terms of conflict between religion and science, Ecklund noted that only a minority of scientists in each regional context believe that science and religion are in conflict. In the U.K. — one of the most secular countries studied — only 32 percent of scientists characterized the science-faith interface as one of conflict. In the U.S., this number was only 29 percent. And 25 percent of Hong Kong scientists, 27 percent of Indian scientists and 23 percent of Taiwanese scientists believed science and religion can coexist and be used to help each other.

In addition to the survey’s quantitative findings, the researchers found nuanced views in scientists’ responses during interviews. For example, numerous scientists expressed how religion can provide a “check” in ethically gray areas.

“(Religion provides a) check on those occasions where you might be tempted to shortcut because you want to get something published and you think, ‘Oh, that experiment wasn’t really good enough, but if I portray it in this way, that will do,'” said a biology professor from the U.K.

Another scientist said that there are “multiple atheisms,” some of which include religious traditions. “I have no problem going to church services because quite often, again that’s a cultural thing,” said a physics reader in the U.K. who said he sometimes attended services because his daughter sang in the church choir. “It’s like looking at another part of your culture, but I have no faith religiously. It doesn’t worry me that religion is still out there.”

Finally, many scientists mentioned ways that they would accommodate the religious views or practices of the public, whether those of students or colleagues.

“Religious issues (are) quite common here because everyone talks about which temple they go to, which church they go to. So it’s not really an issue we hide; we just talk about it. Because, in Taiwan, we have people [of] different religions,” said a Taiwanese professor of biology.

Ecklund and fellow Rice researchers Kirstin Matthews and Steven Lewis collected information from 9,422 respondents in eight regions around the world: France, Hong Kong, India, Italy, Taiwan, Turkey, the U.K. and the U.S. They also traveled to these regions to conduct in-depth interviews with 609 scientists, the largest worldwide survey and interview study ever conducted of the intersection between faith and science.

By surveying and interviewing scientists at various career stages, in elite and nonelite institutions and in biology and physics, the researchers hoped to gain a representative look at scientists’ views on religion, ethics and how both intersect with their scientific work.

Ecklund said that the study has many important implications that can be applied to university hiring processes, how classrooms and labs are structured and general public policy.

“Science is a global endeavor,” Ecklund said. “And as long as science is global, then we need to recognize that the borders between science and religion are more permeable than most people think.”

The Templeton World Charity Foundation funded the study. The study also received support from Rice University and the Faraday Institute, housed at St. Edmund’s College, Cambridge.

Climate policy: Democracy is not an inconvenience (Nature)

NATURE | COMMENT

Nico Stehr

22 September 2015

Climate scientists are tiring of governance that does not lead to action. But democracy must not be weakened in the fight against global warming, warns Nico Stehr.

Illustration by David Parkins

There are many threats to democracy in the modern era. Not least is the risk posed by the widespread public feeling that politicians are not listening. Such discontent can be seen in the political far right: the Tea Party movement in the United States, the UK Independence Party, the Pegida (Patriotic Europeans Against the Islamization of the West) demonstrators in Germany, and the National Front in France.

More surprisingly, a similar impatience with the political elite is now also present in the scientific community. Researchers are increasingly concerned that no one is listening to their diagnosis of the dangers of human-induced climate change and its long-lasting consequences, despite the robust scientific consensus. As governments continue to fail to take appropriate political action, democracy begins to look to some like an inconvenient form of governance. There is a tendency to want to take decisions out of the hands of politicians and the public, and, given the ‘exceptional circumstances’, put the decisions into the hands of scientists themselves.

This scientific disenchantment with democracy has slipped under the radar of many social scientists and commentators. Attention is urgently needed: the solution to the intractable ‘wicked problem’ of global warming is to enhance democracy, not jettison it.

Voices of discontent

Democratic nations seem to have failed us in the climate arena so far. The past decade’s climate summits in Copenhagen, Cancun, Durban and Warsaw were political washouts. Expectations for the next meeting in Paris this December are low.

Academics increasingly point to democracy as a reason for failure. NASA climate researcher James Hansen was quoted in 2009 in The Guardian as saying: “the democratic process doesn’t quite seem to be working”1. In a special issue of the journal Environmental Politics in 2010, political scientist Mark Beeson argued2 that forms of ‘good’ authoritarianism “may become not only justifiable, but essential for the survival of humanity in anything approaching a civilised form”. The title of an opinion piece published earlier this year in The Conversation, an online magazine funded by universities, sums up the issue: ‘Hidden crisis of liberal democracy creates climate change paralysis’ (see go.nature.com/pqgysr).

The depiction of contemporary democracies as ill-equipped to deal with climate change comes from a range of considerations. These include a deep-seated pessimism about the psychological make-up of humans; the disinclination of people to mobilize on issues that seem far removed; and the presumed lack of intellectual competence of people to grasp complex issues. On top of these there is the presumed scientific illiteracy of most politicians and the electorate; the inability of governments locked into short-term voting cycles to address long-term problems; the influence of vested interests on political agendas; the addiction to fossil fuels; and the feeling among the climate-science community that its message falls on the deaf ears of politicians.

“It is dangerous to blindly believe that science and scientists alone can tell us what to do.”

Such views can be heard from the highest ranks of climate science. Hans Joachim Schellnhuber, founding director of the Potsdam Institute for Climate Impact Research and chair of the German Advisory Council on Global Change, said of the inaction in a 2011 interview with German newspaper Der Spiegel: “comfort and ignorance are the biggest flaws of human character. This is a potentially deadly mix”.

What, then, is the alternative? The solution hinted at by many people leans towards a technocracy, in which decisions are made by those with technical knowledge. This can be seen in a shift in the statements of some co-authors of Intergovernmental Panel on Climate Change reports, who are moving away from a purely advisory role towards policy prescription (see, for example, ref. 3).

We must be careful what we wish for. Nations that have followed the path of ‘authoritarian modernization’, such as China and Russia, cannot claim to have a record of environmental accomplishments. In the past two or three years, China’s system has made it a global leader in renewables (it accounts for more than one-quarter of the planet’s investment in such energies4). Despite this, it is struggling to meet ambitious environmental targets and will continue to lead the world for some time in greenhouse-gas emissions. As Chinese citizens become wealthier and more educated, they will surely push for more democratic inclusion in environmental policymaking.

Broad-based support for environmental concerns and subsequent regulations came about in open democratic argument on the value of nature for humanity. Democracies learn from mistakes; autocracies lack flexibility and adaptability5. Democratic nations have forged the most effective international agreements, such as the Montreal Protocol against ozone-depleting substances.

Global stage

Impatient scientists often privilege hegemonic players such as world powers, states, transnational organizations, and multinational corporations. They tend to prefer sweeping policies of global mitigation over messier approaches of local adaptation; for them, global knowledge triumphs over local know-how. But societal trends are going in the opposite direction. The ability of large institutions to impose their will on citizens is declining. People are mobilizing around local concerns and efforts6.

The pessimistic assessment of the ability of democratic governance to cope with and control exceptional circumstances is linked to an optimistic assessment of the potential of large-scale social and economic planning. The uncertainties of social, political and economic events are treated as minor obstacles that can be overcome easily by implementing policies that experts prescribe. But humanity’s capacity to plan ahead effectively is limited. The centralized social and economic planning concept, widely discussed decades ago, has rightly fallen into disrepute7.

The argument for an authoritarian political approach concentrates on a single effect that governance ought to achieve: a reduction of greenhouse-gas emissions. By focusing on that goal, rather than on the economic and social conditions that go hand-in-hand with it, climate policies are reduced to scientific or technical issues. But these are not the sole considerations. Environmental concerns are tightly entangled with other political, economic and cultural issues that both broaden the questions at hand and open up different ways of approaching it. Scientific knowledge is neither immediately performative nor persuasive.

Enhance engagement

There is but one political system that is able to rationally and legitimately cope with the divergent political interests affected by climate change and that is democracy. Only a democratic system can sensitively attend to the conflicts within and among nations and communities, decide between different policies, and generally advance the aspirations of different segments of the population. The ultimate and urgent challenge is that of enhancing democracy, for example by reducing social inequality8.

If not, the threat to civilization will be much more than just changes to our physical environment. The erosion of democracy is an unnecessary suppression of social complexity and rights.

The philosopher Friedrich Hayek, who led the debate against social and economic planning in the mid-twentieth century9, noted a paradox that applies today. As science advances, it tends to strengthen the idea that we should “aim at more deliberate and comprehensive control of all human activities”. Hayek pessimistically added: “It is for this reason that those intoxicated by the advance of knowledge so often become the enemies of freedom”10. We should heed his warning. It is dangerous to blindly believe that science and scientists alone can tell us what to do.

Nature 525, 449–450 (24 September 2015) dos:10.1038/525449a

References

  1. Adam, D. ‘Leading climate scientist: “democratic process isn’t working”’ The Guardian (18 March 2009).
  2. Beeson, M. Environ. Politics 19276294 (2010).
  3. Hansen, J. et alPLoS ONE http://dx.doi.org/10.1371/journal.pone.0081648 (2013).
  4. REN21Renewables 2015 Global Status Report (REN21, 2015).
  5. Runciman, D. The Confidence Trap: A History of Democracy in Crisis from World War I to the Present (Princeton Univ. Press, 2013).
  6. Stehr, N. Information, Power and Democracy, Liberty is a Daughter of Knowledge (Cambridge Univ. Press, 2015).
  7. Pierre, J. Debating Governance: Authority, Steering, and Democracy (Oxford Univ. Press, 2000).
  8. Rosanvallon, P. The Society of Equals (Harvard Univ. Press, 2013).
  9. Hayek, F. A. Nature 148580584 (1941).
  10. Hayek, F. A. The Constitution of Liberty (Routledge, 1960).

ON reúne placas fotográficas que contribuíram para comprovar Teoria da Relatividade (MCTI)

Equipe selecionou 61 placas do Observatório Nacional que documentam eclipse de 1919. Observação em Sobral (CE) ajudou a demonstrar conclusões de Albert Einstein

Uma equipe do Observatório Nacional (ON/MCTI) fez um levantamento das placas fotográficas que fazem parte do resultado da expedição que observou o eclipse total do Sol na cidade de Sobral (CE) em 1919 e contribuiu para a comprovação da Teoria da Relatividade Geral, de Albert Einstein.

Composto pelo astrônomo Carlos H. Veiga, pelas bibliotecárias Katia T. dos Santos e M. Luiza Dias e pelo analista Renaldo N. da S. Junior, o grupo avaliou 900 placas fotográficas do acervo da biblioteca do Observatório. Pela importância científica, foram selecionadas as 61 placas das observações do famoso eclipse, que ainda guardam fielmente a imagem da lua nova encobrindo perfeitamente a imagem do Sol, registradas num dia muito especial para a ciência.

A partir da segunda metade do século XIX, as imagens fotográficas eram registradas em placas de vidro. Esse dispositivo, coberto por uma emulsão contendo sais de prata sensíveis à luz, era usado não só para registrar o cotidiano, mas também pela comunidade astronômica, até a última década do século passado, para observação de corpos celestes. Por ter um baixo coeficiente de dilatação térmica, as placas de vidro garantiam, ao longo do tempo, a precisão e confiabilidade das medidas astronômicas.

A fotografia permitiu um grande avanço para a astronomia e para o desenvolvimento da astrofísica, passando a ter um papel de detector, comparando os dados observacionais com o distanciamento temporal de grandes estruturas, como as galáxias. Em 1873 foi iniciado um programa sistemático de observação da atividade das manchas solares e eclipses e da coroa solar.

Uma manhã que mudou a ciência

Na manhã de 29 de maio de 1919, um fenômeno celeste trocaria, por alguns minutos, o dia pela noite numa pacata cidade do Nordeste brasileiro. Os minutos de duração do fenômeno deveriam ser aproveitados ao máximo. Era a oportunidade para comprovar experimentalmente uma nova afirmação científica prevista por uma teoria idealizada por Einstein (1879-1955), físico de origem alemã: a relatividade geral, que pode ser entendida como uma teoria que explica os fenômenos gravitacionais.

Sobral, a cidade cearense, seria o palco que ajudaria a confirmar um efeito previsto pela relatividade geral: a deflexão da luz, na qual um feixe de luz (neste caso, vindo de uma estrela) deveria ter sua trajetória encurvada (ou desviada) ao passar nas proximidades de um forte campo gravitacional (no caso, gerado pelo Sol).

Esse desvio da luz faz com que a estrela observada seja vista em uma posição aparentemente diferente de sua posição real. O objetivo dos astrônomos era medir um pequeno ângulo formado por essas duas posições.

Naquele dia, aconteceria um eclipse solar total. Os cálculos previam que deveria haver, pelo menos, uma estrela localizada no fundo de céu cuja luz passasse próxima ao bordo solar. Com essa configuração e boas condições meteorológicas, haveria grande chance de comprovar a nova teoria.

Leia mais e veja outras imagens do evento histórico, além de indicações bibliográficas.

(MCTI)

Excitement grows as NASA carbon sleuth begins Year Two (Science Daily)

Date:
October 29, 2015
Source:
NASA/Jet Propulsion Laboratory
Summary:
Scientists busy poring over more than a year of data from NASA’s Orbiting Carbon Observatory-2 (OCO-2) mission are seeing patterns emerge as they seek answers to the science questions that drive the mission.

Global average carbon dioxide concentrations as seen by NASA’s Orbiting Carbon Observatory-2 mission, June 1-15, 2015. OCO-2 measures carbon dioxide from the top of Earth’s atmosphere to its surface. Higher carbon dioxide concentrations are in red, with lower concentrations in yellows and greens. Credit: NASA/JPL-Caltech

Scientists busy poring over more than a year of data from NASA’s Orbiting Carbon Observatory-2 (OCO-2) mission are seeing patterns emerge as they seek answers to the science questions that drive the mission.

Launched in July 2014, OCO-2, an experimental carbon-dioxide measurement mission, is designed to give the international science community a new view of the global carbon cycle in unprecedented detail. During its two-year primary mission, the satellite observatory is tracking the large-scale movement of carbon between Earth’s atmosphere, its plants and soil, and the ocean, from season to season and from year to year. OCO-2 began routine science operations in September 2014.

“We can already clearly see patterns of seasonal change and variations in carbon dioxide around the globe,” said Annmarie Eldering, OCO-2 deputy project scientist at NASA’s Jet Propulsion Laboratory in Pasadena, California. “Far more subtle features are expected to emerge over time.”

A new animation depicting the first full year of OCO-2 science operations is available at:

Armed with a full annual cycle of data, OCO-2 scientists are now beginning to study the net sources of carbon dioxide as well as their “sinks” — places in the Earth system that store carbon, such as the ocean and plants on land. This information will help scientists better understand the natural processes currently absorbing more than half the carbon dioxide emitted into the atmosphere by human activities. This is a key to understanding how Earth’s climate may change in the future as greenhouse gas concentrations increase.

The first year of data from the mission reveals a portrait of a dynamic, living planet. Between mid-May and mid-July 2015, OCO-2 saw a dramatic reduction in the abundance of atmospheric carbon dioxide across the northern hemisphere, as plants on land sprang to life and began rapidly absorbing carbon dioxide from the air to form new leaves, stems and roots. During this intense, two-month period, known as the “spring drawdown,” OCO-2 measurements show the concentration of atmospheric carbon dioxide over much of the northern hemisphere decreased by two to three percent. That’s 8 to 12 parts per million out of the global average background concentration of 400 parts per million.

“That’s a big but expected change,” said Eldering. “This is the first time we’ve ever had the opportunity to observe the spring drawdown across the entire northern hemisphere with this kind of spatial resolution, seeing changes from week to week.”

Also as expected, OCO-2 data show increased concentrations of carbon dioxide associated with human activities. Higher carbon dioxide levels of several parts per million are seen in regions where fossil fuels are being consumed by large power plants or megacities. Enhanced levels are also seen in the Amazon, Central Africa and Indonesia, where forests are being cleared and burned to create fields for agricultural use.

Researchers Abhishek Chatterjee of the Global Modeling and Assimilation Office at NASA’s Goddard Space Flight Center, Greenbelt, Maryland; and Michelle Gierach and Dave Schimel of JPL are investigating a strong correlation observed between atmospheric carbon dioxide over the Pacific Ocean and the current El Nino. Fluctuations in carbon dioxide appear to be strongly linked with warmer sea surface temperatures. OCO-2’s unprecedented density of measurements is giving researchers a unique data set to understand and separate the roles that sea surface temperatures, winds, regional emissions and other variables may be playing in the carbon dioxide concentrations.

“We believe 2016 will see breakthrough OCO-2 research results, as scientists work to unravel the mysteries of finding carbon dioxide sources and natural sinks,” said Eldering.

Through most of OCO-2’s first year in space, the mission team was busy calibrating its science instrument, learning how to process its massive amount of data, and delivering data products to NASA’s Goddard Earth Sciences Data and Information Services Center (GES-DISC) in Greenbelt, Maryland, for distribution to the world’s science community.

Scientists are comparing OCO-2 data to ground-based measurements to validate the satellite data and tie it to internationally accepted standards for accuracy and precision.

Routine delivery of OCO-2 data — calibrated spectra of reflected sunlight that reveal the fingerprints of carbon dioxide — began in late 2014, while estimates of carbon dioxide derived from cloud-free OCO-2 observations have been delivered since March 2015. Recently, the OCO-2 team reprocessed the OCO-2 data set to incorporate improvements in instrument calibration and correct other known issues with the original data release.

Every day, OCO-2 orbits Earth 14.5 times and collects and returns about a million measurements. After eliminating data contaminated by clouds, aerosols and steep terrain, between 10 to 13 percent of the measurements are of sufficient quality to derive accurate estimates of the average carbon dioxide concentration between Earth’s surface and space. That’s at least 100 times more carbon dioxide measurements than from all other sources of precise carbon dioxide data combined.

NASA uses the vantage point of space to increase our understanding of our home planet, improve lives and safeguard our future. NASA develops new ways to observe and study Earth’s interconnected natural systems with long-term data records. The agency freely shares this unique knowledge and works with institutions around the world to gain new insights into how our planet is changing.

For more information on OCO-2, visit:

http://www.nasa.gov/oco-2

For more information about NASA’s Earth science activities, visit:

http://www.nasa.gov/earth

Humanities research is groundbreaking, life-changing… and ignored (The Guardian)

Humanities scholars are making strides in sectors from sustainability to robotics – why are so few people aware of their work?

Philosopher Don Howard worked with computer scientists on the ethics of ‘human-robot interaction’.

Philosopher Don Howard worked with computer scientists on the ethics of ‘human-robot interaction’. Photograph: Alamy

Deep in the corridors of Stanford University’s English department, graduate student Jodie Archer developed a computer model that can predict New York Times bestsellers. Her soon-to-be published research landed her a top job with Apple iBooks and may revolutionise the publishing industry. At the University of Notre Dame, philosopher Don Howard worked with a computer scientist to develop a code of ethics for “human-robot interaction” that could change the way Silicon Valley designs robots.

Both scholars share an academic background in humanities. And they join countless others working in fields such as technology, environmental sustainability and even infectious disease control.

But humanities is experiencing a crisis. Public support has dwindled. Enrolment in humanities majors is down and courses are disappearing from university curricula. A tightening job market means more humanities PhDs than ever are looking for – and not finding – jobs outside of academia.

In theory, our society cherishes the humanities – the 50th anniversary of the National Endowment for the Humanities (NEH) is even being celebrated with a ceremony at the White House. In its years, the NEH has awarded more than $5bn (£3.2m) in grants to promote innovative research and cultural projects, such as the development of a database to track the transatlantic slave trade and the preservation and publication of the Dead Sea scrolls.

Even so, congressional support for the humanities has plummeted along with federal, state and private funding. Adjusted for inflation, the current $146m budget for the NEH represents just half of its expenditure in 1980.

Part of the issue is an image problem around the impact of humanities research on the wider world. The public should know about Priscilla Wald, an English professor at Duke University, whose explanation of the “outbreak narrative” of contagion is changing the way scientists think about the spread of infectious diseases. They should know about environmental humanities professor Joni Adamson, who is applying the study of indigenous cultures to make desert cities into more sustainable ecosystems.

Most arguments for “saving” the humanities focus on the fact that employers prize the critical thinking and communication skills that undergraduate students develop. Although that may be true, such arguments highlight the value of classroom study, not the value of research.

But humanities research teaches us about the world beyond the classroom, and beyond a job. Humanities scholars explore ethical issues, and discover how the past informs the present and the future. Researchers delve into the discourses that construct gender, race, and class. We learn to decode the images that surround us; to understand and use the language necessary to navigate a complex and rapidly shifting world.

The academy itself is partly to blame for this image problem. The inward-focused nature of scholarship has left the public with no choice but to respond to our work with indifference and even disdain, because we have made little effort to demonstrate what purpose our work may have beyond the lecture hall or academic journal.

The traditional academic model does not reward public humanities scholarship. Rather, humanities scholars are saddled with the expectation of producing peer-reviewed articles and monographs published by university presses for tenure and promotion. This antiquated system encourages scholars to write and speak only for an audience of peers, keeping graduate students from branching away from the proto-book dissertation model and faculty from exploring popular venues for their work.

The potential applications of this type of research are endless – the examples above are the just the tip of the iceberg. And more employers need to see that such research has wide application outside of the academy. The American Council of Learned Societies Public Fellows programme is helping to facilitate this process by placing humanities PhDs in high-profile positions in government and non-profit organisations such as the US department of state, Amnesty International and the Human Rights Campaign.

Humanities scholars need to take what feels – right now – like a risk, and engage in more public scholarship. After all, we are the best qualified to talk about our own work. And we need our chairs, our deans and our provosts to afford us the support and incentives to do so.

The payoff will not only be in increased visibility and perceived value for humanities research, but the opportunity to make an impact that is much greater than that offered by the solitary scholar model.

Com ajuda da ciência (Revista Fapesp)

Experiências internacionais inspiram governo de São Paulo a criar cargo de cientista-chefe em secretarias estaduais

BRUNO DE PIERRO | ED. 236 | OUTUBRO 2015

030-035_Cientistas chefes_236Uma medida inédita no país anunciada pelo governo do estado de São Paulo pretende aproximar ciência e gestão pública. Até o início de 2016, cada secretaria estadual deverá contar com um cientista-chefe, cuja função principal será apontar as melhores soluções baseadas no conhecimento científico para enfrentar desafios da respectiva pasta. O anúncio foi feito por Márcio França, vice-governador e secretário estadual de Desenvolvimento Econômico, Ciência, Tecnologia e Inovação, na abertura do Fórum Nacional das Fundações Estaduais de Amparo à Pesquisa (Confap), realizado em 27 e 28 de agosto, na capital paulista. A iniciativa é inspirada no modelo de aconselhamento científico praticado em diferentes níveis de governo em países como Estados Unidos, Reino Unido e Israel.

A iniciativa começou a amadurecer em uma reunião do Conselho Superior da FAPESP, no dia 18 de março, da qual o vice-governador participou como convidado. Na ocasião, França mencionou a dificuldade de identificar pesquisadores com ideias para auxiliar a gestão pública. A sugestão de criar a função de cientista-chefe partiu de Carlos Henrique de Brito Cruz, diretor científico da Fundação. “O professor Brito citou a experiência de países europeus, entre eles o Reino Unido, que criaram o cargo de cientista-chefe em suas estruturas de governo para auxiliar ministros, primeiros-ministros ou presidentes a tomar decisões”, relata Fernando Costa, professor da Universidade Estadual de Campinas (Unicamp) e membro do Conselho Superior da FAPESP, um dos presentes à reunião.

No encontro, Brito Cruz explicou ao vice-governador que cerca de 55% dos recursos da FAPESP são investidos em pesquisas voltadas para aplicações, e Eduardo Moacyr Krieger, vice-presidente da instituição, acrescentou que quase 30% dos investimentos da Fundação são direcionados para a área da saúde e podem beneficiar diretamente ações da Secretaria da Saúde. “Outros campos, como agricultura, educação e segurança pública, também deveriam aproveitar mais a contribuição de pesquisadores”, afirma Krieger. Márcio França gostou da sugestão. “Pensei: por que não aprimorar o diálogo com a comunidade científica por meio de uma fundação como a FAPESP?”, recorda-se o vice-governador, que levou a ideia ao governador Geraldo Alckmin e recebeu sinal verde para implementá-la.

Robin Grimes, do governo britânico, em visita ao campus da Universidade de Nottingham na Malásia, em 2013 (acima, de gravata);

Robin Grimes, do governo britânico, em visita ao campus da Universidade de Nottingham na Malásia, em 2013 (acima, de gravata)

“Essa medida não significa que o governo de São Paulo não vem ouvindo a comunidade científica”, observa Marilza Vieira Cunha Rudge, vice-reitora da Universidade Estadual Paulista (Unesp), também membro do Conselho Superior da FAPESP. Segundo ela, o objetivo é fazer com que os conhecimentos gerados em universidades e instituições de pesquisa do estado sejam absorvidos rapidamente pela administração pública. Uma minuta do decreto está sendo redigida com assessoria da Fundação. Um dos objetivos é que os cientistas-chefes ampliem a aplicação de resultados de pesquisas, entre as quais as apoiadas pela FAPESP, sugerindo articulações com projetos em andamento e propondo novos projetos.

O governo analisa agora os detalhes da iniciativa. O primeiro passo será selecionar os cientistas-chefes que atuarão nas secretarias. Segundo França, o mais provável é que se convidem professores vinculados às três universidades estaduais paulistas – a de São Paulo (USP), a Unicamp e a Unesp – que poderiam ou não se licenciar. Também se discute qual seria o prazo mais adequado para o seu mandato. Para França, uma coisa é certa: os cientistas-chefes terão muito trabalho. “Os problemas e os desafios surgem aos montes na administração pública. Todos os dias e nas mais diversas áreas”, observa o vice-governador.

A bússola que orienta os caminhos futuros é a dos exemplos internacionais. Em setembro de 2014, o presidente dos Estados Unidos, Barack Obama, ofereceu um prêmio de US$ 20 milhões para o grupo de pesquisa que conseguir desenvolver o melhor teste de diagnóstico capaz de reconhecer rapidamente infecções causadas por bactérias resistentes a antibióticos. Segundo informações do Centro para Controle e Prevenção de Doenças (CDC), essas infecções são responsáveis pela morte anual de 23 mil norte-americanos. A ação foi motivada por uma avaliação encomendada pela Casa Branca ao Conselho de Ciência e Tecnologia (PCAST), formado por cerca de 20 especialistas, entre ganhadores de Prêmio Nobel e representantes do setor industrial. O grupo é comandado por John Holdren, professor da Universidade Harvard e conselheiro científico de Obama.

John Holdren, cientista-chefe dos Estados Unidos, que aconselha o presidente Obama (abaixo)

Os Estados Unidos têm tradição em aconselhamento científico. Em 1933, o presidente Franklin Roosevelt criou um comitê consultivo formado por cientistas, engenheiros e profissionais da saúde para assessorá-lo. Em 1957, o país foi o primeiro a nomear um cientista-chefe para trabalhar na Casa Branca. Logo departamentos e autarquias passaram a contar com a consultoria de especialistas. Em 1998, a então secretária de Estado, Madeleine Albright, encomendou um relatório para as Academias Nacionais de Ciências dos Estados Unidos sobre o suporte que a ciência poderia dar em assuntos relativos à política externa. A recomendação foi que ela escolhesse um assessor científico. “Minha tarefa é ajudar o governo a aproveitar os recursos da ciência e da tecnologia para embasar a política externa”, disse à Pesquisa FAPESP Vaughan Turekian, assessor científico de John Kerry, o atual secretário de Estado. Ex-diretor internacional da Associação Americana para o Avanço da Ciência (AAAS), Turekian conta que foi submetido a um rigoroso processo de análise de suas credenciais científicas. “O assessor é nomeado por um período determinado. Isso é intencional. Convém lembrar que o cargo não é uma indicação política”, esclarece.

Outra referência é o Reino Unido, que criou o cargo em 1964. A função de cientista-chefe é desempenhada hoje pelo imunologista Mark Walport, ex-diretor do Wellcome Trust, fundação que financia pesquisa biomédica. Desde 2013, Walport assessora o premiê David Cameron. Um dos primeiros temas tratados por Walport no governo foi o da experimentação animal. Em 2014, após estatísticas mostrarem que o número de animais utilizados em testes pré-clínicos aumentou nos últimos anos no Reino Unido, o governo anunciou medidas para reduzir ou substituir seu uso. Walport atuou como ponte entre o governo e a comunidade científica. Reconheceu a necessidade de mudanças, mas salientou que a abolição de animais em estudos científicos ainda é inviável.

Walport também preside o Conselho de Ciência e Tecnologia (CST), ligado ao Departamento de Negócios, Inovação e Capacitação do Reino Unido. O órgão dispõe de uma divisão de especialistas que forma o Grupo de Aconselhamento Científico para Emergências (Sage). A equipe foi acionada em 2010, quando cinzas de um vulcão na Islândia afetaram o espaço aéreo do Reino Unido, e em 2011, após o incidente nuclear de Fukushima, no Japão.

Mark Walport, cientista-chefe do Reino Unido, em visita a centro de pesquisa no Quênia, em julho (primeiro à esquerda na foto ao lado)

O Reino Unido conta com cientistas-chefes em departamentos e ministérios. “Há uma rede de conselheiros científicos dentro do governo. Isso aproximou ainda mais os diferentes ministérios. O professor Walport organiza uma reunião semanal com os conselheiros, que discutem juntos as prioridades de cada área”, disse à Pesquisa FAPESP Robin Grimes, conselheiro-chefe para assuntos científicos do Ministério das Relações Exteriores do Reino Unido. “Acredito que São Paulo conseguirá se articular melhor com a ciência ao adotar essa medida, além de obter acesso a conceituadas redes de pesquisadores no Brasil e no mundo”, afirmou Grimes.

Para James Wilsdon, especialista em política científica da Universidade de Sussex, Inglaterra, esses exemplos ajudaram outros países a criar modelos de aconselhamento científico adaptados a suas realidades. “Há uma grande variedade de temas que demandam o olhar da ciência, como mudanças climáticas, pandemias, segurança alimentar e pobreza”, explica Wilsdon em um relatório apresentado na conferência da Rede Internacional para Aconselhamento Científico a Governos (INGSA), realizada em agosto de 2014 em Auckland, na Nova Zelândia. A entidade reúne tomadores de decisão e pesquisadores com o objetivo de compartilhar experiências e discutir a utilização de informações científicas em governos. O documento apresenta uma avaliação dos modelos de aconselhamento adotados em 20 países. Além dos exemplos clássicos, são apresentados casos de países que criaram recentemente o cargo, como a Nova Zelândia, cujo primeiro cientista-chefe, Peter Gluckman, foi nomeado em 2009.

O estudo mostra que alguns países optaram por formas de aconselhamento não atreladas à figura de um cientista-chefe. No Japão, o Conselho de Ciência, Tecnologia e Inovação (CSTI) é um dos quatro conselhos que auxiliam o gabinete do primeiro-ministro. Ele é formado pelo primeiro-ministro, seis ministros de Estado e representantes da comunidade científica e do setor industrial. Já países como China, Alemanha, Holanda e África do Sul aproveitam a expertise das entidades representativas da comunidade científica. A Sociedade Alemã de Pesquisas Científicas (DFG), agência não governamental de apoio à pesquisa, é consultada pelo governo e ajuda a elaborar políticas públicas. “Fazemos declarações em comissões do
Senado e temos interação direta com o governo”, diz Dietrich Halm, diretor-presidente da DFG para a América-Latina. Segundo Wilsdon, uma das vantagens desse modelo é que os pesquisadores gozam de independência em relação ao governo.

Peter Gluckman, cientista-chefe do primeiro-ministro da Nova Zelândia

Na região da América-Latina e Caribe, o relatório do fórum de aconselhamento científico cita os exemplos de Cuba e El Salvador. No modelo cubano, há um escritório de aconselhamento científico vinculado ao conselho de Estado, formado por 31 membros. Embora o Brasil nunca tenha contado com a figura do cientista-chefe, a administração pública no país criou mecanismos de articulação com pesquisadores. “Informalmente, o governo federal é aconselhado pela comunidade científica em vários temas”, disse Aldo Rebelo, então ministro da Ciência, Tecnologia e Inovação (MCTI). “No meu caso, mantive contato com a Academia Brasileira de Ciências (ABC), com a Sociedade Brasileira para o Progresso da Ciência (SBPC) e com sociedades científicas.” Segundo o vice-presidente da FAPESP, Eduardo Moacyr Krieger, que também foi presidente da ABC, a atuação do cientista-chefe deve complementar o trabalho que as academias de ciências desenvolvem. “As recomendações dadas pelas academias aos governos estão no plano macro. Já o cientista-chefe está no plano da implementação e do detalhamento do que deve ser feito no cotidiano da administração pública”, diz ele.

No estado de São Paulo a assessoria científica ao governo já era praticada em situações específicas, mesmo sem a presença de cientistas-chefes. É o caso da interlocução entre especialistas ligados ao Programa Biota-FAPESP e a Secretaria Estadual do Meio Ambiente. Desde o lançamento do programa em 1999, 23 resoluções e decretos estaduais mencionam resultados do Biota como referência para a tomada de decisões. Há um canal de diálogo com gestores das unidades de conservação onde são desenvolvidos projetos. “Os pesquisadores costumam ser membros de conselhos consultivos de parques estaduais e outras áreas protegidas”, observa Carlos Joly, professor da Unicamp e coordenador do programa. Os especialistas vinculados ao Biota também trabalham em parceria com instituições ligadas à secretaria, como o Instituto de Botânica, o Instituto Florestal e a Fundação Florestal. E o próprio gabinete da secretária do Meio Ambiente, Patricia Faga Iglecias Lemos, acompanha a produção científica do programa.

Outra experiência é a do Conselho Estadual de Ciência, Tecnologia e Inovação em Saúde, criado em 2014 para assessorar a Secretaria da Saúde na formulação e condução de políticas. O órgão é composto por representantes de universidades públicas instaladas em São Paulo, institutos, centros de pesquisa, hospitais e entidades ligadas ao setor industrial. “Atualmente, o conselho discute a proposta de criação de uma política estadual de ciência, tecnologia e inovação em saúde”, explica Sergio Swain Muller, presidente do conselho. “Já realizamos oficinas, ouvimos a contribuição das universidades e estamos preparando um documento com diagnósticos e ações para a consolidação desse plano.” Cabe também ao conselho auxiliar na definição de prioridades para o próximo edital do Programa de Pesquisa para o Sistema Único de Saúde (PPSUS), conduzido pela FAPESP em parceria com a Secretaria da Saúde, o Ministério da Saúde e o CNPq. “Uma das prioridades é apoiar pesquisas sobre novos mecanismos de gestão pública da saúde”, diz Muller. Já no âmbito da Secretaria Estadual de Agricultura e Abastecimento foi criada em 2002 a Agência Paulista de Tecnologia dos Agronegócios (Apta), que atua na coordenação de pesquisas de interesse da pasta. Sua estrutura compreende os institutos Agronômico (IAC), Biológico, de Economia Agrícola, de Pesca, de Tecnologia de Alimentos e o de Zootecnia, além de 15 polos regionais de pesquisa.

e Vaughan Turekian, assessor direto de John Kerry, secretário de Estado norte-americano

“Prospectamos estudos capazes de resolver problemas enfrentados por agricultores e os encaminhamos para a secretaria”, diz Orlando Melo de Castro, coordenador da Apta. Um dos desafios da secretaria cuja solução vem sendo debatida entre os institutos abrigados pela agência é tornar a cana-de-açúcar mais resistente à seca. “O IAC foi procurado, porque já trabalha nesse assunto, inclusive em parceria com usinas localizadas em Goiás, onde há um período de seca prolongado. A ideia é aproveitar essas pesquisas em programas da secretaria”, explica Castro.

Para o sociólogo Simon Schwartzman, estudioso da comunidade científica brasileira e pesquisador do Instituto de Estudos do Trabalho e Sociedade, o país não tem tradição no uso da ciência por gestores públicos. “Claro, há exceções”, pondera. “O Ministério da Saúde conta com um centro de pesquisas próprio, o Instituto Oswaldo Cruz, assim como acontece com o Ministério da Agricultura, que tem a ajuda da Embrapa.” Carlos Joly recorda-se que a comunidade científica costumava impor barreiras na hora de se sentar à mesa com políticos. “Colaborei como assessor de meio ambiente na elaboração da Constituição Federal de 1988. Na época, fui criticado por colegas, que pensavam que cientista não deveria se envolver com assuntos da política”, conta. Em 1995, Joly foi convidado pelo então secretário de Meio Ambiente do estado de São Paulo, Fábio Feldmann, a trabalhar como seu assessor. “Naquele momento isso já não foi visto como algo incomum. Aos poucos os pesquisadores se deram conta da importância de trabalhar em colaboração com gestores públicos”, afirma Joly.

O climatologista Carlos Nobre, presidente da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes), guarda na memória histórias da relação tensa entre políticos e cientistas. Em 1998, Nobre e sua equipe do Centro de Previsão de Tempo e Estudos Climáticos (CPTEC) encaminharam ao governo federal e ao Congresso um parecer prevendo uma seca de grande intensidade no Nordeste nos meses seguintes, em decorrência do El Niño. “Ninguém nos ouviu”, lembra Nobre. “Acho que não acreditavam, na época, que fosse possível fazer previsão de secas de qualidade com base em modelos matemáticos.”

O vice-governador Márcio França reconhece que há pontos de tensão quando políticos e cientistas se encontram. “A questão é que nem sempre o consenso científico é financeira e politicamente viável naquele momento”, diz ele. Para Carlos Nobre, que já ocupou cargos de gestão de política científica no MCTI e integra o corpo de especialistas do fórum global de aconselhamento científico, ainda assim a situação é melhor hoje. “Ambos os lados perceberam que a solução de problemas como secas e desastres naturais dependem de ações conjuntas”, afirma.

Autora do livro The fifth branch: science advisers as policymakers e de artigos que abordam a relação entre ciência, democracia e política, a norte-americana Sheila Jasanoff, da Universidade Harvard, adverte que o aconselhamento científico a governos exige muitos julgamentos. “Requer a tomada de decisões sobre, por exemplo, se é melhor correr um risco ou se precaver. É preciso saber como pesar as diversas evidências”, explica. Segundo ela, o aconselhamento pode de fato auxiliar os gestores. “Mas os órgãos científicos consultivos precisam operar de forma aberta e transparente. Isso é exigido por lei nos Estados Unidos”, explica. Em 2010, o governo britânico divulgou um documento no qual recomenda que os níveis de incerteza presentes em torno de questões científicas sejam explicitamente identificados nos pareceres enviados a gestores públicos, comunicados em linguagem simples e direta.

What if Dean Radin is right? (The Sceptic’s Dictionary)

by Robert Todd Carroll

Dean Radin, author of The Conscious Universe: The Scientific Truth of Psychic Phenomena (HarperSanFrancisco 1997), says that “psi researchers have resolved a century of skeptical doubts through thousands of replicated laboratory studies” (289) regarding the reality of psychic phenomena such as ESP(extrasensory perception) and PK (psychokinesis). Of course, Radin also considers meta-analysis as the most widely accepted method of measuring replication in science (51). Few scientists would agree with either of these claims. In any case, most American adults—about 75%, according to a 2005 Gallup poll—believe in at least one paranormal phenomenon. Forty-one percent believe in ESP. Fifty-five percent believe in the power of the mind to heal the body. One doesn’t need to be psychic to know that the majority of believers in psi have come to their beliefs through experience or anecdotes, rather than through studying the scientific evidence Radin puts forth in his book.

Radin doesn’t claim that the scientific evidence is going to make more believers. He realizes that the kind of evidence psi researchers have put forth hasn’t persuaded most scientists that there is anything of value in parapsychology. He thinks  there is “a general uneasiness about parapsychology” and that because of the “insular nature of scientific disciplines, the vast majority of psi experiments are unknown to most scientists.” He also dismisses critics as skeptics who’ve conducted “superficial reviews.” Anyone familiar with the entire body of research, he says, would recognize he is correct and would see that there are “fantastic theoretical implications” (129) to psi research. Nevertheless, in 2005 the Nobel Committee once again  passed over the psi scientists when handing out awards to those who have made significant contributions to our scientific knowledge.

The evidence Radin presents, however, is little more than a hodgepodge of occult statistics. Unable to find a single person who can correctly guess a three-letter word or move a pencil an inch without trickery, the psi researchers have resorted to doing complex statistical analyses of data. In well-designed studies they assume that whenever they have data that, by some statistical formula, is not likely due to chance, they attribute the outcome to psi. A well-designed study is one that carefully controls for such things as cheating, sensory leakage (unintentional transfer of information by non-psychic means), inadequate randomization, and other factors that might lead to an artifact (something that looks like it’s due to psi when it’s actually due to something else).

The result of this enormous data that Radin cites is that there is statistical evidence (for what it’s worth) that indicates (however tentatively) that some very weak psi effects are present (so weak that not a single individual who participates in a successful study has any inkling of possessing psychic power). Nevertheless, Radin thinks it is appropriate to speculate about the enormous implications of psi for biology, psychology, sociology, philosophy, religion, medicine, technology, warfare, police work, business, and politics. Never mind that nobody has any idea as to how psi might work. That is a minor detail to someone who can write with a straight face (apparently) that:

lots of independent, simple glimpses of the future may one day innocently crash the future. It’s not clear what it means to “crash the future,” but it doesn’t sound good. (297)

No, it certainly doesn’t sound good. But, as somebody once said, “the future will be better tomorrow.”

According to Radin, we may look forward to a future with “psychic garage-door openers” and the ability to “push atoms around” with our minds (292). Radin is not the least bit put off by the criticism that all the other sciences have led us away from superstition andmagical thinking, while parapsychology tries to lead us into those pre-scientific modes. Radin notes that “the concept that mind is primary over matter is deeply rooted in Eastern philosophy and ancient beliefs about magic.” However, instead of saying that it is now time to move forward, he rebuffs “Western science” for rejecting such beliefs as “mere superstition.” Magical thinking, he says, “lies close beneath the veneer of the sophisticated modern mind” (293). He even claims that “the fundamental issues [of consciousness] remain as mysterious today as they did five thousand years ago.” We may not have arrived at a final theory of the mind, but a lot of the mystery has evaporated with the progress made in the neurosciences over the past century. None of our advancing knowledge of the mind, however, has been due to contributions from parapsychologists. (Cf. Blackmore 2001).

Radin doesn’t grasp the fact that the concept of mind can be an illusion without being a “meaningless illusion” (294). He seems to have read David Chalmers, but I suggest he and his followers read Daniel Dennett. I’d begin with Sweet Dreams (2005)Consciousness is not “a complete mystery,” as Radin claims (294). The best that Radin can come up with as evidence that psi research has something to offer consciousness studies is the claim that “information can be obtained in ways that bypass the ordinary sensory system altogether” (295). Let’s ignore the fact that this claim begs the question. What neuroscience has uncovered is just how interesting and complex this “ordinary sensory system” turns out to be.

Radin would have us believe that magical thinking is essential to our psychological well being (293). If he’s right, we’ll one day be able to solve all social problems by “mass-mind healings.” And religious claims will get new meaning as people come to understand the psychic forces behind miracles and talking to the dead. According to Radin, when a medium today talks to a spirit “perhaps he is in contact with someone who is alive in the past.From the ‘departed’ person’s perspective, she may find herself communicating with someone from the future, although it is not clear that she would know that” (295). Yes, I don’t think that would be clear, either.

In medicine, Radin expects distant mental healing (which he argues has been scientifically established) to expand to something that “might be called techno-shamanism” (296). He describes this new development as “an exotic, yet rigorously schooled combination of ancient magical principles and future technologies” (296). He expects psi to join magnetic resonance imaging and blood tests as common stock in the world of medicine. “This would translate into huge savings and improved quality of life for millions of people” (192) as “untold billions of dollars in medical costs could be saved” (193). 

Then, of course, there will be the very useful developments that include the ability to telepathically “call a friend in a distant spacecraft, or someone in a deeply submerged submarine” (296). On the other hand, the use of psychic power by the military and by police investigators will depend, Radin says, on “the mood of the times.” If what is popular on television is an indicator of the mood of the times, I predict that there will be full employment for psychic detectives and remote viewers in the future.

Radin looks forward to the day when psi technology “might allow thought control of prosthetics for paraplegics” and “mind-melding techniques to provide people with vast, computer-enhanced memories, lightning-fast mathematical capabilities, and supersensitive perceptions” (197). He even suggests we employ remote viewer Joe McMoneagle  to reveal future technological devices he “has sensed in his remote-viewing sessions” (100).

Radin considers a few other benefits that will come from our increased ability to use psi powers: “to guide archeological digs and treasure-hunting expeditions, enhance gambling profits, and provide insight into historical events” (202). However, he does not consider some of the obvious problems and benefits that would occur should psychic ability become common. Imagine the difficulties for the junior high teacher in a room full of adolescents trained in PK. Teachers and parents would be spending most of their psychic energy controlling the hormones of their charges. The female garment and beauty industries would be destroyed as many attractive females would be driven to try to make themselves look ugly to avoid having their clothes being constantly removed by psychic perverts and pranksters. 

Ben Radford has noted the potential for “gross and unethical violations of privacy,” as people would be peeping into each other’s minds. On the other hand, infidelity and all forms of deception might die out, since nobody could deceive anyone about anything if we were all psychic. Magic would become pointless and “professions that involve deception would be worthless” (Radford 2000). There wouldn’t be any need for undercover work or spies. Every child molester would be identified immediately. No double agent could ever get away with it. There wouldn’t be any more lotteries, since everybody could predict the winning numbers. We wouldn’t need trials of accused persons and the polygraph would be a thing of the past.

Hurricanes, tsunamis, earthquakes, floods, and other signs of intelligent design will become things of the past as billions of humans unite to focus their thoughts on predicting and controlling the forces of nature. We won’t need to build elaborate systems to turn away errant asteroids or comets heading for our planet: billons of us will unite to will the objects on their merry way toward some other oblivion. It is unlikely that human nature will change as we become more psychically able, so warfare will continue but will be significantly changed. Weapons won’t be needed because we’ll be able to rearrange our enemies’ atoms and turn them into mush from the comfort of our living rooms. (Who knows? It might only take a few folks with super psi powers to find Osama bin Laden and turn him into a puddle of irradiated meat.) Disease and old age will become things of the past as we learn to use our thoughts to kill cancer cells and control our DNA.

Space travel will become trivial and heavy lifting will be eliminated as we will be able to teleport anything to anywhere at anytime through global consciousness. We’ll be able to transport all the benefits of earthly consciousness to every planet in the universe. There are many other likely effects of global psychic ability that Radin has overlooked but this is understandable given his heavy workload as Senior Scientist at IONS (The Institute of Noetic Sciences) and as a blogger.

Radin notes only one problem should psi ability become common: we’ll all be dipping into the future and we might “crash the future,” whatever that means. The bright side of crashing the future will be the realization of “true freedom” as we will no longer be doomed to our predestined fate. We will all have the power “to create the future as we wish, rather than blindly follow a predetermined course through our ignorance” (297). That should make even the most cynical Islamic fundamentalist or doomsday Christian take heed. This psi stuff could be dangerous to one’s delusions even as it tickles one’s funny bone and stimulates one’s imagination to aspire to the power of gods and demons.

******      ******      ******

update: Radin has a follow-up book out called Entangled Minds: Extrasensory Experiences in a Quantum Reality. Like The Conscious Universe, this one lays out the scientific evidence for psi as seen from the eyes of a true believer. As noted above, in The Conscious Universe, Radin uses statistics and meta-analysisto prove that psychic phenomena really do exist even if those who have the experiences in the labs are unaware of them. Statistical data show that the world has gone psychic, according to the latest generation of parapsychologists. You may be unconscious of it, but your mind is affecting random number generators all over the world as you read this. The old psychic stuff—thinking about aunt Hildie moments before she calls to tell you to bugger off—is now demonstrated to be true by statistical methods that were validated in 1937 by Burton Camp and meta-validated by Radin 60 years later when he asserted that meta-analysis was the replication parapsychologists had been looking for. The only difference is that now when you think of aunt Hildie it might be moments before she calls her car mechanic and that, too, may be linked to activity in your mind that you are unaware of.

Radin’s second book sees entanglement as a key to understanding extrasensory phenomena. Entanglement is a concept from quantum physics that refers to connections between subatomic particles that persist regardless of being separated by various distances. He notes that some physicists have speculated that the entire universe might be entangled and that the Eastern mystics of old might have been on to something cosmic. His speculations are rather wild but his assertions are rather modest. For example: “I believe that entanglement suggests a scenario that may ultimately lead to a vastly improved understanding of psi” (p. 14) and “I propose that the fabric of reality is comprised [sic] of ‘entangled threads’ that are consistent with the core of psi experience” (p. 19). Skeptics might suggest that studying self-deception and wishful thinking would lead to a vastly improved understanding of psi research and that being consistent with a model is a minimal, necessary condition for taking any model seriously, but hardly sufficient to warrant much faith.

Readers of The Conscious Universe will be pleased to know that Radin has outdone himself on the meta-analysis front. In his second book, he provides a meta-meta-analysis of over 1,000 studies on dream psi, ganzfeld psi, staring, distant intention, dice PK, and RNG PK. He concludes that the odds against chance of getting these results are 10104 against 1 (p. 276). As Radin says, “there can be little doubt that something interesting is going on” (p. 275). Yes, but I’m afraid it may be going on only in some entangled minds.

On the bright side, Radin continues to ignore Gary Schwartz and self-proclaimed psychics like Jon Edward, Sylvia BrowneUri Geller, and Ted Owens. He still has a fondness for remote viewers like Joe McMoneagle, however, who seems impressive if you don’t understand subjective validation, are willing to ignore the vast majority of his visions, and aren’t bothered by vagueness in the criteria as to what counts as a “hit” in remote viewing. Even a broken clock is right twice a day.

Radin predicts that some day “psi research will be taught in universities with the same aplomb as today’s elementary economics and biology” (p. 295). Perhaps psi research will be taught in the same classroom as intelligent design, though this seems unlikely as parapsychology attempts to reduce all supernatural and paranormal phenomena to physics. Maybe they could both be taught in the same curriculum: things that explain everything but illuminate nothing.

note: If the reader wants to see a more complete review of Radin’s work, please read my reviews of his books. Links are given below.

further reading

book reviews by Robert T. Carroll

The Conscious Universe: The Scientific Truth of Psychic Phenomena
by Dean Radin (HarperOne 1997)

Entangled Minds: Extrasensory Experiences in a Quantum Reality
by Dean Radin (Paraview Pocket Books 2006)

The End of Materialism: How Evidence of the Paranormal is Bringing Science and Spirit Together by Charles T. Tart, Ph.D. (New Harbinger 2009)

Spook: Science Tackles the Afterlife 
by Mary Roach (W. W. Norton 2005).

The Afterlife Experiments: Breakthrough Scientific Evidence of Life After Death
by Gary Schwartz (Atria 2003)

Ghost Hunters – William James and the Hunt for Scientific Proof of Life After Death
by Deborah Blum (Penguin Press 2006).

books and articles

Blackmore, Susan. (2001) “What Can the Paranormal Teach Us About Consciousness?” Skeptical Inquirer, March/April.

Blackmore, Susan (2003). Consciousness: An Introduction. Oxford University Press.

Good, I. J. (1997). Review of The Conscious UniverseNatureOctober 23, with links to responses by Radin, Brian Josephson, and Nick Herbert.

Larsen, Claus. (2002). An evening with Dean Radin.

Pedersen, Morten Monrad. (2003). Book Review of Dean Radin’s The Conscious Universe

Radin, Dean. (1997). The Conscious Universe – The Scientific Truth of Psychic Phenomena. HarperCollins.

Radin, Dean. (2006). Entangled Minds: Extrasensory Experiences in a Quantum Reality. Paraview Pocket Books.

Radford, Benjamin. (2000). “Worlds in Collision – Applying Reality to the Paranormal,” Skeptical Inquirer, November/December.

Last updated 01-Aug-2015

Exxon’s climate lie: ‘No corporation has ever done anything this big or bad’ (The Guardian)

The truth of Exxon’s complicity in global warming must to be told – how they knew about climate change decades ago but chose to help kill our planet

Exxon refinery in Texas

By 1978 Exxon’s senior scientists were telling top management that climate change was real, caused by man, and would raise global temperatures by 2-3C. Photograph: Pat Sullivan/AP

I’m well aware that with Paris looming it’s time to be hopeful, and I’m willing to try. Even amid the record heat and flooding of the present, there are good signs for the future in the rising climate movement and the falling cost of solar.

But before we get to past and present there’s some past to be reckoned with, and before we get to hope there’s some deep, blood-red anger.

In the last three weeks, two separate teams of journalists — the Pulitzer-prize winning reporters at the website Inside Climate News and another crew composed of Los Angeles Times veterans and up-and-comers at the Columbia Journalism School — have begun publishing the results of a pair of independent investigations into ExxonMobil.

Though they draw on completely different archives, leaked documents, and interviews with ex-employees, they reach the same damning conclusion: Exxon knew all that there was to know about climate change decades ago, and instead of alerting the rest of us denied the science and obstructed the politics of global warming.

To be specific:

  • By 1978 Exxon’s senior scientists were telling top management that climate change was real, caused by man, and would raise global temperatures by 2-3C this century, which was pretty much spot-on.
  • By the early 1980s they’d validated these findings with shipborne measurements of CO2 (they outfitted a giant tanker with carbon sensors for a research voyage) and with computer models that showed precisely what was coming. As the head of one key lab at Exxon Research wrote to his superiors, there was “unanimous agreement in the scientific community that a temperature increase of this magnitude would bring about significant changes in the earth’s climate, including rainfall distribution and alterations in the biosphere”.
  • And by the early 1990s their researchers studying the possibility for new exploration in the Arctic were well aware that human-induced climate change was melting the poles. Indeed, they used that knowledge to plan their strategy, reporting that soon the Beaufort Sea would be ice-free as much as five months a year instead of the historic two. Greenhouse gases are rising “due to the burning of fossil fuels,” a key Exxon researcher told an audience of engineers at a conference in 1991. “Nobody disputes this fact.”

But of course Exxon did dispute that fact. Not inside the company, where they used their knowledge to buy oil leases in the areas they knew would melt, but outside, where they used their political and financial might to make sure no one took climate change seriously.

They helped organise campaigns designed to instil doubt, borrowing tactics and personnel from the tobacco industry’s similar fight. They funded “institutes” devoted to outright climate denial. And at the highest levels they did all they could to spread their lies.

To understand the treachery – the sheer, profound, and I think unparalleled evil – of Exxon, one must remember the timing. Global warming became a public topic in 1988, thanks to Nasa scientist James Hansen – it’s taken a quarter-century and counting for the world to take effective action. If at any point in that journey Exxon – largest oil company on Earth, most profitable enterprise in human history – had said: “Our own research shows that these scientists are right and that we are in a dangerous place,” the faux debate would effectively have ended. That’s all it would have taken; stripped of the cover provided by doubt, humanity would have gotten to work.

Instead, knowingly, they helped organise the most consequential lie in human history, and kept that lie going past the point where we can protect the poles, prevent the acidification of the oceans, or slow sea level rise enough to save the most vulnerable regions and cultures. Businesses misbehave all the time, but VW is the flea to Exxon’s elephant. No corporation has ever done anything this big and this bad.

I’m aware that anger at this point does little good. I’m aware that all clever people will say “of course they did” or “we all use fossil fuels”, as if either claim is meaningful. I’m aware that nothing much will happen to Exxon – I doubt they’ll be tried in court, or their executives sent to jail.

But nonetheless it seems crucial simply to say, for the record, the truth: this company had the singular capacity to change the course of world history for the better and instead it changed that course for the infinitely worse. In its greed Exxon helped — more than any other institution — to kill our planet.

Justiça pré-científica (Folha de S.Paulo)

Editorial

18/10/2015  02h00

A situação é surreal. Decisões judiciais têm obrigado a USP a produzir e fornecer a pessoas com câncer uma substância cujos efeitos não são conhecidos, que não teve sua eficácia comprovada e, pior, jamais foi submetida a testes de segurança em seres humanos.

As liminares concedidas não só ignoram princípios básicos da pesquisa científica como também colocam em risco a vida dos mais de mil pacientes autorizados a receber um composto a respeito do qual praticamente nada se sabe.

Estudada por um professor do Instituto de Química da USP de São Carlos, a fosfoetanolamina só passou por experimentos em células e animais, nos quais mostrou algum potencial contra certos cânceres.

Noticia-se que o docente, seguro das possibilidades terapêuticas da substância –que não pode ser considerada um remédio–, a distribuía por conta própria. Em 2014, uma portaria da universidade interrompeu o fornecimento.

Iniciou-se, então, uma disputa judicial. Centenas de liminares determinando que a USP providenciasse a droga foram concedidas na primeira instância, mas, em setembro, terminaram suspensas pelo Tribunal de Justiça de São Paulo.

No começo de outubro, o ministro Luiz Edson Fachin, do Supremo Tribunal Federal, ordenou que um paciente recebesse cápsulas de fosfoetanolamina. Ato contínuo, o presidente do TJ-SP, José Renato Nalini, reconsiderou a suspensão de entrega da substância.

A argumentação dos magistrados denuncia profundo desconhecimento dos protocolos universalmente adotados para o desenvolvimento de fármacos.

Fachin, por exemplo, parece considerar o registro na Anvisa (Agência Nacional de Vigilância Sanitária) um detalhe desimportante. Não é. Trata-se de garantia de que a droga passou por todos os testes devidos –razão pela qual nem sequer há pedido de registro da fosfoetanolamina na agência.

Nalini, por sua vez, afirma que “não se podem ignorar os relatos de pacientes que apontam melhora no quadro clínico”. Ocorre que a ausência de testes controlados torna impossível saber se os alegados progressos decorreram de propriedades do composto.

Mais: sem as pesquisas apropriadas, não se podem descartar efeitos colaterais e graves problemas gerados pela interação com substâncias presentes em medicamentos.

Compreende-se que a luta contra o câncer leve pacientes a buscar todo tipo de tratamento –mas essa é uma questão individual. O Poder Judiciário, entretanto, ao decidir casos dessa natureza, não pode atropelar as normas de validação científica.