Arquivo da tag: Estatística

Steven Pinker talks Donald Trump, the media, and how the world is better off today than ever before (ABC Australia)


“By many measures of human flourishing the state of humanity has been improving,” renowned cognitive scientist Steven Pinker says, a view often in contrast to the highlights of the 24-hour news cycle and the recent “counter-enlightenment” movement of Donald Trump.

“Fewer of us are dying of disease, fewer of us are dying of hunger, more of us are living in democracies, were more affluent, better educated … these are trends that you can’t easily appreciate from the news because they never happen all at once,” he says.

Canadian-American thinker Steven Pinker is the author of Bill Gates’s new favourite book — Enlightenment Now — in which he maintains that historically speaking the world is significantly better than ever before.

But he says the media’s narrow focus on negative anomalies can result in “systematically distorted” views of the world.

Speaking to the ABC’s The World program, Mr Pinker gave his views on Donald Trump, distorted perceptions and the simple arithmetic that proves the world is better than ever before.

Donald Trump’s ‘counter-enlightenment’

“Trumpism is of course part of a larger phenomenon of authoritarian populism. This is a backlash against the values responsible for the progress that we’ve enjoyed. It’s a kind of counter-enlightenment ideology that Trumpism promotes. Namely, instead of universal human wellbeing, it focusses on the glory of the nation, it assumes that nations are in zero-sum competition against each other as opposed to cooperating globally. It ignores the institutions of democracy which were specifically implemented to avoid a charismatic authoritarian leader from wielding power, but subjects him or her to the restraints of a governed system with checks and balances, which Donald Trump seems to think is rather a nuisance to his own ability to voice the greatness of the people directly. So in many ways all of the enlightenment forces we have enjoyed, are being pushed back by Trump. But this is a tension that has been in play for a couple of hundred years. No sooner did the enlightenment happen that a counter-enlightenment grew up to oppose it, and every once in a while it does make reappearances.”

News media can ‘systematically distort’ perceptions

“If your impression of the world is driven by journalism, then as long as various evils haven’t gone to zero there’ll always be enough of them to fill the news. And if journalism isn’t accompanied by a bit of historical context, that is not just what’s bad now but how bad it was in the past, and statistical context, namely how many wars? How many terrorist attacks? What is the rate of homicide? Then our intuitions, since they’re driven by images and narratives and anecdotes, can be systematically distorted by the news unless it’s presented in historical and statistical context.

‘Simple arithmetic’: The world is getting better

“It’s just a simple matter of arithmetic. You can’t look at how much there is right now and say that it is increasing or decreasing until you compare it with how much took place in the past. When you look at how much took place in the past you realise how much worse things were in the 50s, 60s, 70s and 80s. We don’t appreciate it now when we concentrate on the remaining horrors, but there were horrific wars such as the Iran-Iraq war, the Soviets in Afghanistan, the war in Vietnam, the partition of India, the Bangladesh war of independence, the Korean War, which killed far more people than even the brutal wars of today. And if we only focus on the present, we ought to be aware of the suffering that continues to exist, but we can’t take that as evidence that things have gotten worse unless we remember what happened in the past.”

Don’t equate inequality with poverty

“Globally, inequality is decreasing. That is, if you don’t look within a wealthy country like Britain or the United States, but look across the globe either comparing countries or comparing people worldwide. As best as we can tell, inequality is decreasing because so many poor countries are getting richer faster than rich countries are getting richer. Now within the wealthy countries of the anglosphere, inequality is increasing. And although inequality brings with it a number of serious problems such as disproportionate political power to the wealthy. But inequality itself is not a problem. What we have to focus on is the wellbeing of those at the bottom end of the scale, the poor and the lower middle class. And those have not actually been decreasing once you take into account government transfers and benefits. Now this is a reason we shouldn’t take for granted, the important role of government transfers and benefits. It’s one of the reasons why the non-English speaking wealthy democracies tend to have greater equality than the English speaking ones. But we shouldn’t confuse inequality with poverty.”


Human societies evolve along similar paths (University of Exeter)


Societies ranging from ancient Rome and the Inca empire to modern Britain and China have evolved along similar paths, a huge new study shows.

Despite their many differences, societies tend to become more complex in “highly predictable” ways, researchers said.

These processes of development – often happening in societies with no knowledge of each other – include the emergence of writing systems and “specialised” government workers such as soldiers, judges and bureaucrats.The international research team, including researchers from the University of Exeter, created a new database of historical and archaeological information using data on 414 societies spanning the last 10,000 years. The database is larger and more systematic than anything that has gone before it.

“Societies evolve along a bumpy path – sometimes breaking apart – but the trend is towards larger, more complex arrangements,” said corresponding author Dr Thomas Currie, of the Human Behaviour and Cultural Evolution Group at the University of Exeter’s Penryn Campus in Cornwall.

“Researchers have long debated whether social complexity can be meaningfully compared across different parts of the world. Our research suggests that, despite surface differences, there are fundamental similarities in the way societies evolve.

“Although societies in places as distant as Mississippi and China evolved independently and followed their own trajectories, the structure of social organisation is broadly shared across all continents and historical eras.”

The measures of complexity examined by the researchers were divided into nine categories. These included:

  • Population size and territory
  • Number of control/decision levels in administrative, religious and military hierarchies
  • Information systems such as writing and record keeping
  • Literature on specialised topics such as history, philosophy and fiction
  • Economic development

The researchers found that these different features showed strong statistical relationships, meaning that variation in societies across space and time could be captured by a single measure of social complexity.

This measure can be thought of as “a composite measure of the various roles, institutions, and technologies that enable the coordination of large numbers of people to act in a politically unified manner”.

Dr Currie said learning lessons from human history could have practical uses.

“Understanding the ways in which societies evolve over time and in particular how humans are able to create large, cohesive groups is important when we think about state building and development,” he said.

“This study shows how the sciences and humanities, which have not always seen eye-to-eye, can actually work together effectively to uncover general rules that have shaped human history.”


The new database of historical and archaeological information is known as “Seshat: Global History Databank” and its construction was led by researchers from the University of Exeter, the University of Connecticut, the University of Oxford, Trinity College Dublin and the Evolution Institute. More than 70 expert historians and archaeologists have helped in the data collection process.

The paper, published in Proceedings of the National Academy of Sciences, is entitled: “Quantitative historical analysis uncovers a single dimension of complexity that structures global variation in human social organisation.”

50 anos de calamidades na América do Sul (Pesquisa Fapesp)

Terremotos e vulcões matam mais, mas secas e inundações atingem maior número de pessoas 


Um estudo sobre os impactos de 863 desastres naturais registrados nas últimas cinco décadas na América do Sul indica que fenômenos geológicos relativamente raros, como os terremotos e o vulcanismo, produziram quase o dobro de mortes do que eventos climáticos e meteorológicos de ocorrência mais frequente, como inundações, deslizamento de encostas, tempestades e secas. Dos cerca de 180 mil óbitos decorrentes dos desastres, 60% foram em razão de tremores de terra e da atividade de vulcões, um tipo de ocorrência que se concentra nos países andinos, como Peru, Chile, Equador e Colômbia. Os terremotos e o vulcanismo representaram, respectivamente, 11% e 3% dos eventos contabilizados no trabalho.

Aproximadamente 32% das mortes ocorreram em razão de eventos associados a ocorrências meteorológicas ou climáticas, categoria que engloba quatro de cada cinco desastres naturais registrados na região entre 1960 e 2009. Epidemias de doenças – um tipo de desastre biológico com dados escassos sobre a região, segundo o levantamento – levaram 15 mil pessoas a perder a vida, 8% do total. No Brasil, 10.225 pessoas morreram ao longo dessas cinco décadas em razão de desastres naturais, pouco mais de 5% do total, a maioria em inundações e deslizamentos de encostas durante tempestades.

Seca no Nordeste...

O trabalho foi feito pela geógrafa Lucí Hidalgo Nunes, professora do Instituto de Geociências da Universidade Estadual de Campinas (IG-Unicamp) para sua tese de livre-docência e resultou no livro Urbanização e desastres naturais – Abrangência América do Sul (Oficina de Textos), lançado em meados do ano passado. “Desde os anos 1960, a população urbana da América do Sul é maior do que a rural”, diz Lucí. “O palco maior das calamidades naturais tem sido o espaço urbano, que cresce em área ocupada pelas cidades e número de habitantes.”

A situação se inverteu quando o parâmetro analisado foi, em vez da quantidade de mortos, o número de indivíduos afetados em cada tipo de desastre. Dos 138 milhões de vítimas não fatais atingidas por esses eventos, 1% foi alvo de epidemias, 11% de terremotos e vulcanismo, 88% de fenômenos climáticos ou meteorológicos. As secas e as inundações foram as ocorrências que provocaram impactos em mais indivíduos. As grandes estiagens atingiram 57 milhões de pessoas (41% de todos os afetados), e as enchentes, 52,5 milhões de habitantes (38%). O Brasil respondeu por cerca de 85% das vítimas não fatais de secas, essencialmente moradores do Nordeste, e por um terço dos atingidos por inundações, fundamentalmente habitantes das grandes cidades do Sul-Sudeste.

...inundação em Caracas, na Venezuela: esses dois tipos de desastres são os que afetam o maior número de pessoas

Estimados em US$ 44 bilhões ao longo das cinco décadas, os prejuízos materiais associados aos quase 900 desastres contabilizados foram decorrentes, em 80% dos casos, de fenômenos de natureza climática ou meteorológica. “O Brasil tem quase 50% do território e mais da metade da população da América do Sul. Mas foi palco de apenas 20% dos desastres, 5% das mortes e 30% dos prejuízos econômicos associados a esses eventos”, diz Lucí. “O número de pessoas afetadas aqui, no entanto, foi alto, 53% do total de atingidos por desastres na América do Sul. Ainda temos vulnerabilidades, mas não tanto quanto países como Peru, Colômbia e Equador.”

Para escrever o estudo, a geógrafa com-pilou, organizou e analisou os registros de desastres naturais das últimas cinco décadas nos países da América do Sul, além da Guiana Francesa (departamento ultramarino da França), que estão armazenados no Em-Dat – International Disaster Database. Essa base de dados reúne informações sobre mais de 21 mil desastres naturais ocorridos em todo o mundo desde 1900 até hoje. Ela é mantida pelo Centro de Pesquisa em Epidemiologia de Desastres (Cred, na sigla em inglês), que funciona na Escola de Saúde Pública da Universidade Católica de Louvain, em Bruxelas (Bélgica). “Não há base de dados perfeita”, pondera Lucí. “A do Em-Dat é falha, por exemplo, no registro de desastres biológicos.” Sua vantagem é juntar informações oriundas de diferentes fontes – agências não governamentais, órgãos das Nações Unidas, companhias de seguros, institutos de pesquisa e meios de comunicação – e arquivá-las usando sempre a mesma metodologia, abordagem que possibilita a realização de estudos comparativos.

O que caracteriza um desastre
Os eventos registrados no Em-Dat como desastres naturais devem preencher ao menos uma de quatro condições: provocar a morte de no mínimo 10 pessoas; afetar 100 ou mais indivíduos; motivar a declaração de estado de emergência; ou ainda ser a razão para um pedido de ajuda internacional. No trabalho sobre a América do Sul, Lucí organizou os desastres em três grandes categorias, subdivididas em 10 tipos de ocorrências. Os fenômenos de natureza geofísica englobam os terremotos, as erupções vulcânicas e os movimentos de massa seca (como a queda de uma pedra morro abaixo em um dia sem chuva). Os eventos de caráter meteorológico ou climático abarcam as tempestades, as inundações, os deslocamentos de terra em encostas, os extremos de temperatura (calor ou frio fora do normal), as secas e os incêndios. As epidemias representam o único tipo de desastre biológico contabilizado (ver quadro).

062-065_Desastres climáticos_241O climatologista José Marengo, chefe da divisão de pesquisas do Centro Nacional de Monitoramento e Alertas de Desastres Naturais (Cemaden), em Cachoeira Paulista, interior de São Paulo, afirma que, além de eventos naturais, existem desastres considerados tecnológicos e casos híbridos. O rompimento em novembro passado de uma barragem de rejeitos da mineradora Samarco, em Mariana (MG), que provocou a morte de 19 pessoas e liberou toneladas de uma lama tóxica na bacia hidrográfica do rio Doce, não tem relação com eventos naturais. Pode ser qualificado como um desastre tecnológico, em que a ação humana está ligada às causas da ocorrência. Em 2011, o terremoto de 9.0 graus na escala Richter, seguido de tsunamis, foi o maior da história do Japão. Matou quase 16 mil pessoas, feriu 6 mil habitantes e provocou o desaparecimento de 2.500 indivíduos. Destruiu também cerca de 138 mil edificações. Uma das construções afetadas foi a usina nuclear de Fukushima, de cujos reatores vazou radioatividade. “Nesse caso, houve um desastre tecnológico causado por um desastre natural”, afirma Marengo.

Década após década, os registros de desastres naturais têm aumentado no continente, seguindo uma tendência que parece ser global. “A qualidade das informações sobre os desastres naturais melhorou muito nas últimas décadas. Isso ajuda a engrossar as estatísticas”, diz Lucí. “Mas parece haver um aumento real no número de eventos ocorridos.” Segundo o estudo, grande parte da escalada de eventos trágicos se deveu ao número crescente de fenômenos meteorológicos e climáticos de grande intensidade que atingiram a América do Sul. Na década de 1960, houve 51 eventos desse tipo. Nos anos 2000, o número subiu para 257. Ao longo das cinco décadas, a incidência de desastres geofísicos, que provocam muitas mortes, manteve-se mais ou menos estável e os casos de epidemias diminuíram.

Risco urbano 
O número de mortes em razão de eventos extremos parece estar diminuindo depois de ter atingido um pico de 75 mil óbitos nos anos 1970. Na década passada, houve pouco mais de 6 mil mortes na América do Sul causadas por desastres naturais, de acordo com o levantamento de Lucí. Historicamente, as vítimas fatais se concentram em poucas ocorrências de enormes proporções, em especial os terremotos e as erupções vulcânicas. Os 20 eventos com mais fatalidades (oito ocorridos no Peru e cinco na Colômbia) responderam por 83% de todas as mortes ligadas a fenômenos naturais entre 1960 e 2009. O pior desastre foi um terremoto no Peru em maio de 1970, com 66 mil mortes, seguido de uma inundação na Venezuela em dezembro de 1999 (30 mil mortes) e uma erupção vulcânica na Colômbia em novembro de 1985 (20 mil mortes). O Brasil contabiliza o 9º evento com mais fatalidades (a epidemia de meningite em 1974, com 1.500 óbitos) e o 19° (um deslizamento de encostas, em razão de fortes chuvas, que matou 436 pessoas em março de 1967 em Caraguatatuba, litoral de São Paulo).

Também houve declínio na quantidade de pessoas afetadas nos anos mais recentes, mas as cifras continuam elevadas. Nos anos 1980, os desastres produziram cerca de 50 milhões de vítimas não fatais na América do Sul. Na década passada e também na retrasada, o número caiu para cerca de 20 milhões.

062-065_Desastres climáticos_241-02Sete em cada 10 latino-americanos moram atualmente em cidades, onde a ocupação do solo sem critérios e algumas características geoclimáticas específicas tendem a aumentar a vulnerabilidade da população local a desastres naturais. Lucí comparou a situação de 56 aglomerados urbanos com mais de 750 mil habitantes da América do Sul em relação a cinco fatores que aumentam o risco de calamidades: seca, terremoto, inundação, deslizamento de encostas e vulcanismo. Quito, capital do Equador, foi a única metrópole que estava exposta aos cinco fatores. Quatro cidades colombianas (Bogotá, Cáli, Cúcuta e Medellín) e La Paz, na Bolívia, vieram logo atrás, com quatro vulnerabilidades. As capitais brasileiras apresentaram no máximo dois fatores de risco, seca e inundação (ver quadro). “Os desastres resultam da junção de ameaças naturais e das vulnerabilidades das áreas ocupadas”, diz o pesquisador Victor Marchezini, do Cemaden, sociólogo que estuda os impactos de longo prazo desses fenômenos extremos. “São um evento socioambiental.”

É difícil mensurar os custos de um desastre. Mas a partir de dados da edição de 2013 do Atlas brasileiro de desastres naturais, que usa uma metodologia dife-rente da empregada pela geógrafa da Unicamp para contabilizar calamidades na América do Sul, o grupo de Carlos Eduardo Young, do Instituto de Economia da Universidade Federal do Rio de Janeiro (UFRJ), fez no final do ano passado um estudo. Baseado em estimativas do Banco Mundial de perdas provocadas por desastres em alguns estados brasileiros, Young calculou que enxurradas, inundações e movimentos de massa ocorridos entre 2002 e 2012 provocaram prejuízos econômicos de ao menos R$ 180 bilhões para o país. Em geral, os estados mais pobres, como os do Nordeste, sofreram as maiores perdas econômicas em relação ao tamanho do seu PIB. “A vulnerabilidade a desastres pode ser inversamente proporcional ao grau de desenvolvimento econômico dos estados”, diz o economista. “As mudanças climáticas podem acirrar a questão da desigualdade regional no Brasil.”

IPEA: Estudo desfaz mitos sobre a violência no país (Boletim FPA)

Ano 4 – nº 289 – 22 de março de 2016 – FUNDAÇÃO PERSEU ABRAMO

Estudo lançado hoje pelo Instituto de Pesquisa Econômica Aplicada (Ipea) discute a violência letal no país, que tem evoluído de maneira bastante desigual nas unidades federativas e microrregiões, atingindo crescentemente os moradores de cidades menores no interior e no Nordeste. Segundo o estudo, naqueles estados em que se verificou queda dos homicídios, políticas públicas qualitativamente consistentes foram adotadas, como no caso de São Paulo, Pernambuco, Espírito Santo e Rio de Janeiro. O gráfico abaixo mostra a evolução das taxas de homicídio no país por regiões de 2004 a 2014.  

Segundo o estudo, os homicídios no Brasil em 2014 representam mais de 10% dos homicídios registrados no mundo e colocam o Brasil como o país com o maior número absoluto de homicídios. O Brasil apresentaria ainda uma das 12 maiores taxas de homicídios do mundo. Tal tragédia, segundo o estudo, traz implicações na saúde, na dinâmica demográfica e, por conseguinte, no processo de desenvolvimento econômico e social, uma vez que 53% dos óbitos de homens na faixa etária de 15 a 19 anos são ocasionados por homicídios.

Quanto à escolaridade, o estudo mostra que as chances de vitimização para os indivíduos com 21 anos de idade e menos de oito anos de estudo são 5,4 vezes maiores do que os do mesmo grupo etário e oito ou mais anos de estudo: a educação funciona como um escudo contra os homicídios. Ainda, o estudo mostra que, aos 21 anos de idade, quando há o pico das chances de uma pessoa sofrer homicídio no Brasil, negros possuem 147% a mais de chances de ser vitimados por homicídios, em relação a indivíduos brancos, amarelos e indígenas. Ocorreu também, de 2004 a 2014, um acirramento da diferença de letalidade entre negros e não negros na última década.

O estudo ainda chama a atenção para as especificidades da violência de gênero no país, que por vezes fica invisibilizada diante dos ainda maiores números da violência letal entre homens ou mesmo pela resistência em reconhecer este tema como um problema de política pública.

No caso de mortes causadas por agentes do Estado em serviço, o estudo aponta uma “evidente a subnotificação existente”. Argumenta-se que a letalidade policial é a expressão mais dramática da falta de democratização das instituições responsáveis pela segurança pública no país.

O estudo ainda aponta, por meio de um modelo estatístico, que, ao contrário do que deseja parcela do nosso congresso nacional, se a vitimização violenta assumiu contornos de uma tragédia social no Brasil, sem o Estatuto do Desarmamento a tragédia seria ainda pior.

O Atlas é uma rica fonte de informações sobre a violência no país, se contrapondo ao senso comum sobre o tema no país.

The Water Data Drought (N.Y.Times)

Then there is water.

Water may be the most important item in our lives, our economy and our landscape about which we know the least. We not only don’t tabulate our water use every hour or every day, we don’t do it every month, or even every year.

The official analysis of water use in the United States is done every five years. It takes a tiny team of people four years to collect, tabulate and release the data. In November 2014, the United States Geological Survey issued its most current comprehensive analysis of United States water use — for the year 2010.

The 2010 report runs 64 pages of small type, reporting water use in each state by quality and quantity, by source, and by whether it’s used on farms, in factories or in homes.

It doesn’t take four years to get five years of data. All we get every five years is one year of data.

The data system is ridiculously primitive. It was an embarrassment even two decades ago. The vast gaps — we start out missing 80 percent of the picture — mean that from one side of the continent to the other, we’re making decisions blindly.

In just the past 27 months, there have been a string of high-profile water crises — poisoned water in Flint, Mich.; polluted water in Toledo, Ohio, and Charleston, W. Va.; the continued drying of the Colorado River basin — that have undermined confidence in our ability to manage water.

In the time it took to compile the 2010 report, Texas endured a four-year drought. California settled into what has become a five-year drought. The most authoritative water-use data from across the West couldn’t be less helpful: It’s from the year before the droughts began.

In the last year of the Obama presidency, the administration has decided to grab hold of this country’s water problems, water policy and water innovation. Next Tuesday, the White House is hosting a Water Summit, where it promises to unveil new ideas to galvanize the sleepy world of water.

The question White House officials are asking is simple: What could the federal government do that wouldn’t cost much but that would change how we think about water?

The best and simplest answer: Fix water data.

More than any other single step, modernizing water data would unleash an era of water innovation unlike anything in a century.

We have a brilliant model for what water data could be: the Energy Information Administration, which has every imaginable data point about energy use — solar, wind, biodiesel, the state of the heating oil market during the winter we’re living through right now — all available, free, to anyone. It’s not just authoritative, it’s indispensable. Congress created the agency in the wake of the 1970s energy crisis, when it became clear we didn’t have the information about energy use necessary to make good public policy.

That’s exactly the state of water — we’ve got crises percolating all over, but lack the data necessary to make smart policy decisions.

Congress and President Obama should pass updated legislation creating inside the United States Geological Survey a vigorous water data agency with the explicit charge to gather and quickly release water data of every kind — what utilities provide, what fracking companies and strawberry growers use, what comes from rivers and reservoirs, the state of aquifers.

Good information does three things.

First, it creates the demand for more good information. Once you know what you can know, you want to know more.

Second, good data changes behavior. The real-time miles-per-gallon gauges in our cars are a great example. Who doesn’t want to edge the M.P.G. number a little higher? Any company, community or family that starts measuring how much water it uses immediately sees ways to use less.

Finally, data ignites innovation. Who imagined that when most everyone started carrying a smartphone, we’d have instant, nationwide traffic data? The phones make the traffic data possible, and they also deliver it to us.

The truth is, we don’t have any idea what detailed water use data for the United States will reveal. But we can be certain it will create an era of water transformation. If we had monthly data on three big water users — power plants, farmers and water utilities — we’d instantly see which communities use water well, and which ones don’t.

We’d see whether tomato farmers in California or Florida do a better job. We’d have the information to make smart decisions about conservation, about innovation and about investing in new kinds of water systems.

Water’s biggest problem, in this country and around the world, is its invisibility. You don’t tackle problems that are out of sight. We need a new relationship with water, and that has to start with understanding it.

Statisticians Found One Thing They Can Agree On: It’s Time To Stop Misusing P-Values (FiveThirtyEight)


  1. Even the Supreme Court has weighed in, unanimously ruling in 2011 that statistical significance does not automatically equate to scientific or policy importance. ^

Christie Aschwanden is FiveThirtyEight’s lead writer for science.

Queda de homicídios em SP é obra do PCC, e não da polícia, diz pesquisador (BBC Brasil)

Thiago Guimarães
De Londres

12/02/2016, 15h21 

Policiais militares da Rota durante operação na periferia de São Paulo

Policiais militares da Rota durante operação na periferia de São Paulo. Mario Ângelo/ SigmaPress/AE

Em anúncio recente, o governo de São Paulo informou ter alcançado a menor taxa de homicídios dolosos do Estado em 20 anos. O índice em 2015 ficou em 8,73 por 100 mil habitantes – abaixo de 10 por 100 mil pela primeira vez desde 2001.

“Isso não é obra do acaso. É fruto de muita dedicação. Policiais morreram, perderam suas vidas, heróis anônimos, para que São Paulo pudesse conseguir essa conquista”, disse na ocasião o governador Geraldo Alckmin (PSDB).Para um pesquisador que acompanhou a rotina de investigadores de homicídios em São Paulo, o responsável pela queda é outro: o próprio crime organizado – no caso, o PCC (Primeiro Comando da Capital), a facção que atua dentro e fora dos presídios do Estado.

“A regulação do PCC é o principal fator sobre a vida e a morte em São Paulo. O PCC é produto, produtor e regulador da violência”, diz o canadense Graham Willis, em defesa da hipótese que circula no meio acadêmico e é considerada “ridícula” pelo governo paulista.

Professor da Universidade de Cambridge (Inglaterra), Willis lança nova luz sobre a chamada “hipótese PCC”, num trabalho de imersão que acompanhou a rotina de policiais do DHPP (Delegacia de Homicídios e Proteção à Pessoa) de São Paulo entre 2009 e 2012.

A pesquisa teve acesso a dezenas de documentos internos apreendidos com um membro do PCC e ouviu moradores, comerciantes e criminosos em uma comunidade dominada pela facção na zona leste de São Paulo, em 2007 e 2011.

Teorias do ‘quase tudo’

O trabalho questiona teorias que, segundo Willis, procuram apoio em “quase tudo” para explicar o notório declínio da violência homicida em São Paulo: mudanças demográficas, desarmamento, redução do desemprego, reforço do policiamento em áreas críticas.

“O sistema de segurança pública nunca estabeleceu por que houve essa queda de homicídios nos últimos 15 anos. E nunca transmitiu uma história crível. Falam em políticas públicas, policiamento de hotspots (áreas críticas), mas isso não dá para explicar”, diz.

Em geral, a argumentação de Willis é a seguinte: a queda de 73% nos homicídios no Estado desde 2001, marco inicial da atual série histórica, é muito brusca para ser explicada por fatores de longo prazo como avanços socioeconômicos e mudanças na polícia.

Isso fica claro, diz o pesquisador, quando se constata que, antes da redução, os homicídios se concentravam de forma desproporcional em bairros da periferia da capital paulista: Jardim Ângela, Cidade Tiradentes, Capão Redondo, Brasilândia.

A pacificação nesses locais – com quedas de quase 80% – coincide com o momento, a partir de 2003, em que a estrutura do PCC se ramifica e chega ao cotidiano dessas regiões.

“A queda foi tão rápida que não indica um fator socioeconômico ou de policiamento, que seria algo de longo prazo. Deu-se em vários espaços da cidade mais ou menos na mesma época. E não há dados sobre políticas públicas específicas nesses locais para explicar essas tendências”, diz ele, que baseou suas conclusões em observações de campo.


Canal de autoridade

Criado em 1993 com o objetivo declarado de “combater a opressão no sistema prisional paulista” e “vingar” as 111 mortes do massacre do Carandiru, o PCC começa a representar um canal de autoridade em áreas até então caracterizadas pela ausência estatal a partir dos anos 2000, à medida que descentraliza suas decisões.

Os pilares dessa autoridade, segundo Willis e outros pesquisadores que estudaram a facção, são a segurança relativa, noções de solidariedade e estruturas de assistência social. Nesse sentido, a polícia, tradicionalmente vista nesses locais como violenta e corrupta, foi substituída por outra ordem social.

“Quando estive numa comunidade controlada pela facção, moradores diziam que podiam dormir tranquilos com portas e janelas destrancadas”, escreve Willis no recém-lançado The Killing Consensus: Police, Organized Crime and the Regulation of Life and Death in Urban Brazil (O Consenso Assassino: Polícia, Crime Organizado e a Regulação da Vida e da Morte no Brasil Urbano, em tradução livre), livro em que descreve os resultados da investigação.

Antes do domínio do PCC, relata Willis, predominava uma violência difusa e intensa na capital paulista (que responde por 25% dos homicídios no Estado). Gangues lutavam na economia das drogas e abriam espaço para a criminalidade generalizada. O cenário muda quando a facção transpõe às ruas as regras de controle da violência que estabelecera nos presídios.

“Para a organização manter suas atividades criminosas é muito melhor ficar ‘muda’ para não chamar atenção e ter um ambiente de segurança controlado, com regras internas muito rígidas que funcionem”, avalia Willis, que descreve no livro os sistemas de punição da facção.

O pesquisador considera que as ondas de violência promovidas pelo PCC em São Paulo em 2006 e em 2012, com ataques a policiais e a instalações públicas, são pontos fora da curva, episódios de resposta à violência estatal.

“Eles não ficam violentos quando o problema é a repressão ao tráfico, por exemplo, mas quando sentem a sua segurança ameaçada. E a resposta da polícia é ser mais violenta, o que fortalece a ideia entre criminosos de que precisam de proteção. Ou seja, quanto mais você ataca o PCC, mais forte ele fica.”

Apuração em xeque

Willis critica a forma como São Paulo contabiliza seus mortos em situações violentas – e diz que o cenário real é provavelmente mais grave do que o discurso oficial sugere.

Ele questiona, por exemplo, a existência de ao menos nove classificações de mortes violentas em potencial (ossadas encontradas, suicídio, morte suspeita, morte a esclarecer, roubo seguido de morte/latrocínio, homicídio culposo, resistência seguida de morte e homicídio doloso) e diz que a multiplicidade de categorias mascara a realidade.

“Em geral, a investigação de homicídios não acontece em todo o caso. Cada morte suspeita tem que ser avaliada primeiramente por um delegado antes de se decidir se vai ser investigado como homicídio, enquanto em varias cidades do mundo qualquer morte suspeita é investigada como homicídio.”

Para ele, deveria haver mais transparência sobre a taxa de resolução de homicídios (que em São Paulo, diz, fica em torno de 30%, mas inclui casos arquivados sem definições de responsáveis) e sobre o próprio trabalho dos policiais que apuram os casos, que ele vê como um dos mais desvalorizados dentro da instituição.

“Normalmente se pensa em divisão de homicídios como organização de ponta. Mas é o contrário: é um lugar profundamente subvalorizado dentro da polícia, de policiais jovens ou em fim de carreira que desejam sair de lá o mais rápido possível. Policiais suspeitam de quem trabalha lá, em parte porque investigam policiais envolvidos em mortes, mas também porque as vidas que investigam em geral não têm valor, são pessoas de partes pobres da cidade.”

Para ele, o desaparelhamento da investigação de homicídios contrasta com a estrutura de batalhões especializados em repressão, como a Rota e a Força Tática da Polícia Militar.

“Esses policiais têm carros incríveis, caveirões, armas de ponta. Isso mostra muito bem a prioridade dos políticos, que é a repressão física a moradores pobres e negros da periferia. Não é investigar a vida dessas pessoas quando morrem.”

Outro lado

Críticos da chamada “hipótese PCC” costumam levantar a seguinte questão: se a retração nos homicídios não ocorreu por ação da polícia, como explicar a queda em outros índices criminais? Segundo o governo, por exemplo, São Paulo teve queda geral da criminalidade no ano passado em relação a 2014. A facção, ironizam os críticos, estaria então ajudando na queda desses crimes também?

“Variações estatísticas não necessariamente refletem ações do Estado”, diz Willis. Para ele, estudos já mostraram que mais atividade policial não significa sempre menor criminalidade.

Willis diz ainda que as variações estatísticas nesses outros crimes não são significativas, e que o PCC não depende de roubos de carga, veículos ou bancos, mas do pequeno tráfico de drogas com o qual os membros bancam as contribuições obrigatórias à facção.

A Secretaria de Segurança Pública de São Paulo disse considerar a hipótese de Willis sobre o declínio dos homicídios “ridícula e amplamente desmentida pela realidade de todos os índices criminais” do Estado.

Afirma que a taxa no Estado é quase três vezes menor do que a média nacional (25,1 casos por 100 mil habitantes) e “qualquer pesquisador com o mínimo de rigor sabe que propor uma relação de causa e efeito neste sentido é brigar contra as regras básicas da ciência”.

A pasta informou que todos crimes cometidos por policiais no Estado são punidos – citou 1.445 expulsões, 654 demissões e 1.849 policiais presos desde 2011 – e negou a existência de grupos de extermínio nas corporações.

Sobre o fato de não incluir mortes cometidas por policiais na soma oficial dos homicídios, mas em categoria à parte, disse que “todos os Estados” brasileiros e a “maioria dos países, inclusive os Estados Unidos” adotam a mesma metodologia.

A secretaria não comentou as considerações de Willis sobre a estrutura da investigação de homicídios no Estado e a suposta prioridade dada à forças voltadas à repressão.

Monitoramento e análise de dados – A crise nos mananciais de São Paulo (Probabit)

Situação 25.1.2015

4,2 milímetros de chuva em 24.1.2015 nos reservatórios de São Paulo (média ponderada).

305 bilhões de litros (13,60%) de água em estoque. Em 24 horas, o volume subiu 4,4 bilhões de litros (0,19%).

134 dias até acabar toda a água armazenada, com chuvas de 996 mm/ano e mantida a eficiência corrente do sistema.

66% é a redução no consumo necessária para equilibrar o sistema nas condições atuais e 33% de perdas na distribuição.

Para entender a crise

Como ler este gráfico?

Os pontos no gráfico mostram 4040 intervalos de 1 ano para o acumulado de chuva e a variação no estoque total de água (do dia 1º de janeiro de 2003/2004 até hoje). O padrão mostra que mais chuva faz o estoque variar para cima e menos chuva para baixo, como seria de se esperar.

Este e os demais gráficos desta página consideram sempre a capacidade total de armazenamento de água em São Paulo (2,24 trilhões de litros), isto é, a soma dos reservatórios dos Sistemas Cantareira, Alto Tietê, Guarapiranga, Cotia, Rio Grande e Rio Claro. Quer explorar os dados?

A região de chuva acumulada de 1.400 mm a 1.600 mm ao ano concentra a maioria dos pontos observados de 2003 para cá. É para esse padrão usual de chuvas que o sistema foi projetado. Nessa região, o sistema opera sem grandes desvios de seu equilíbrio: máximo de 15% para cima ou para baixo em um ano. Por usar como referência a variação em 1 ano, esse modo de ver os dados elimina a oscilação sazonal de chuvas e destaca as variações climáticas de maior amplitude. Ver padrões ano a ano.

Uma segunda camada de informação no mesmo gráfico são as zonas de risco. A zona vermelha é delimitada pelo estoque atual de água em %. Todos os pontos dentro dessa área (com frequência indicada à direita) representam, portanto, situações que se repetidas levarão ao colapso do sistema em menos de 1 ano. A zona amarela mostra a incidência de casos que se repetidos levarão à diminuição do estoque. Só haverá recuperação efetiva do sistema se ocorrerem novos pontos acima da faixa amarela.

Para contextualizar o momento atual e dar uma ideia de tendência, pontos interligados em azul destacam a leitura adicionada hoje (acumulado de chuva e variação entre hoje e mesmo dia do ano passado) e as leituras de 30, 60 e 90 atrás (em tons progressivamente mais claros).

Discussão a partir de um modelo simples

O ajuste de um modelo linear aos casos observados mostra que existe uma razoável correlação entre o acumulado de chuva e a variação no estoque hídrico, como o esperado.

Ao mesmo tempo, fica clara a grande dispersão de comportamento do sistema, especialmente na faixa de chuvas entre 1.400 mm e 1.500 mm. Acima de 1.600 mm há dois caminhos bem separados, o inferior corresponde ao perído entre 2009 e 2010 quando os reservatórios ficaram cheios e não foi possível estocar a chuva excedente.

Além de uma gestão deliberadamente mais ou menos eficiente da água disponível, podem contribuir para as flutuações observadas as variações combinadas no consumo, nas perdas e na efetividade da captação de água. Entretanto, não há dados para examinarmos separadamente o efeito de cada uma dessas variáveis.

Simulação 1: Efeito do aumento do estoque de água

Nesta simulação foi hipoteticamente incluído no sistema de abastecimento a reserva adicional da represa Billings, com volume de 998 bilhões de litros (já descontados o braço “potável” do reservatório Rio Grande).

Aumentar o estoque disponível não muda o ponto de equilíbrio, mas altera a inclinação da reta que representa a relação entre a chuva e a variação no estoque. A diferença de inclinação entre a linha azul (simulada) e a vermelha (real) mostra o efeito da ampliação do estoque.

Se a Billings não fosse hoje um depósito gigante de esgotos, poderíamos estar fora da situação crítica. Entretanto, vale enfatizar que o simples aumento de estoque não é capaz de evitar indefinidamente a escassez se a quantidade de chuva persistir abaixo do ponto de equilíbrio.

Simulação 2: Efeito da melhoria na eficiência

O único modo de manter o estoque estável quando as chuvas se tornam mais escassas é mudar a ‘curva de eficiência’ do sistema. Em outras palavras, é preciso consumir menos e se adaptar a uma menor entrada de água no sistema.

A linha azul no gráfico ao lado indica o eixo ao redor do qual os pontos precisariam flutuar para que o sistema se equilibrasse com uma oferta anual de 1.200 mm de chuva.

A melhoria da eficiência pode ser alcançada por redução no consumo, redução nas perdas e melhoria na tecnologia de captação de água (por exemplo pela recuperação das matas ciliares e nascentes em torno dos mananciais).

Se persistir a situação desenhada de 2013 a 2015, com chuvas em torno de 1.000 mm será necessário atingir uma curva de eficiência que está muito distante do que já se conseguiu praticar, acima mesmo dos melhores casos já observados.

Com o equilíbrio de “projeto” em torno de 1.500 mm, a conta é mais ou menos assim: a Sabesp perde 500 mm (33% da água distribuída), a população consume 1.000 mm. Para chegar rapidamente ao equilíbrio em 1.000 mm, o consumo deveria ser de 500 mm, uma vez que as perdas não poderão ser rapidamente evitadas e acontecem antes do consumo.

Se 1/3 da água distribuída não fosse sistematicamente perdida não haveria crise. Os 500 mm de chuva disperdiçados anualmente pela precariedade do sistema de distribução não fazem falta quando chove 1.500 mm, mas com 1.000 mm cada litro jogado fora de um lado é um litro que terá de ser economizado do outro.

Simulação 3: Eficiência corrente e economia necessária

Para estimar a eficiência corrente são usadas as últimas 120 observações do comportamento do sistema.

A curva de eficiência corrente permite estimar o ponto de equilíbrio atual do sistema (ponto vermelho em destaque).

O ponto azul indica a última observação do acumulado anual de chuvas. A diferença entre os dois mede o tamanho do desequilíbrio.

Apenas para estancar a perda de água do sistema, é preciso reduzir em 49% o fluxo de retirada. Como esse fluxo inclui todas as perdas, se depender apenas da redução no consumo, a economia precisa ser de 66% se as perdas forem de 33%, ou de 56% se as perdas forem de 17%.

Parece incrível que a eficiência do sistema esteja tão baixa em meio a uma crise tão grave. A tentativa de contenção no consumo está aumentando o consumo? Volumes menores e mais rasos evaporam mais? As pessoas ainda não perceberam a tamanho do desastre?


Supondo que novos estoques de água não serão incorporados no curto prazo, o prognóstico sobre se e quando a água vai acabar depende da quantidade de chuva e da eficiência do sistema.

O gráfico mostra quantos dias restam de água em função do acumulado de chuva, considerando duas curvas de eficiência: a média e a corrente (estimada a partir dos últimos 120 dias).

O ponto em destaque considera a observação mais recente de chuva acumulada no ano e mostra quantos dias restam de água se persistirem as condições atuais de chuva e de eficiência.

O prognóstico é uma referência que varia de acordo com as novas observações e não tem probabilidade definida. Trata-se de uma projeção para melhor visualizar as condições necessárias para escapar do colapso.

Porém, lembrando que a média histórica de chuvas em São Paulo é de 1.441 mm ao ano, uma curva que cruze esse limite significa um sistema com mais de 50% de chances de colapsar em menos de um ano. Somos capazes de evitar o desastre?

Os dados

O ponto de partida são os dados divulgados diariamente pela Sabesp. A série de dados original atualizada está disponível aqui.

Porém, há duas importantes limitações nesses dados que podem distorcer a interpretação da realidade: 1) a Sabesp usa somente porcentagens para se referir a reservatórios com volumes totais muito diferentes; 2) a entrada de novos volumes não altera a base-de-cálculo sobre o qual essa porcentagem é medida.

Por isso, foi necessário corrigir as porcentagens da série de dados original em relação ao volume total atual, uma vez que os volumes que não eram acessíveis se tornaram acessíveis e, convenhamos, sempre estiveram lá nas represas. A série corrigida pode ser obtida aqui. Ela contém uma coluna adicional com os dados dos volumes reais (em bilhões de litros: hm3)

Além disso, decidimos tratar os dados de forma consolidada, como se toda a água estivesse em um único grande reservatório. A série de dados usada para gerar os gráficos desta página contém apenas a soma ponderada do estoque (%) e da chuva (mm) diários e também está disponível.

As correções realizadas eliminam os picos causados pelas entradas dos volumes mortos e permitem ver com mais clareza o padrão de queda do estoque em 2014.

Padrões ano a ano

Média e quartis do estoque durante o ano

Sobre este estudo

Preocupado com a escassez de água, comecei a estudar o problema ao final de 2014. Busquei uma abordagem concisa e consistente de apresentar os dados, dando destaque para as três variáveis que realmente importam: a chuva, o estoque total e a eficiência do sistema. O site entrou no ar em 16 de janeiro de 2015. Todos os dias, os modelos e os gráficos são refeitos com as novas informações.

Espero que esta página ajude a informar a real dimensão da crise da água em São Paulo e estimule mais ações para o seu enfrentamento.

Mauro Zackiewicz

scientia probabitlaboratório de dados essenciais

Otimismo do brasileiro cai pela primeira vez desde 2009 (OESP)

Por José Roberto de Toledo | Estadão Conteúdo – 12.jan.2014

No ano em que a presidente Dilma Rousseff tentará se reeleger, o otimismo do brasileiro está 17 pontos menor do que quando a petista assumiu a Presidência da República. Segundo pesquisa do Ibope, 57% esperam que 2014 seja melhor do que 2013. Apesar de elevada, a taxa caiu pela primeira vez em anos. Na pesquisa anterior, os otimistas eram 72% – mesmo patamar de 2011 (74%), 2010 (73%) e 2009 (74%), pela margem de erro.

O pessimismo praticamente dobrou nos últimos 12 meses. Agora, 14% acham que 2014 será pior do que 2013. Um ano antes, só 8% achavam que 2013 seria pior do que 2012. Os restantes 24% apostam que este ano será igual ao anterior (eram 17%).

Há diferenças regionais importantes no otimismo dos brasileiros. Ele é muito maior no Norte/Centro-Oeste (69%) e Nordeste (67%) do que no Sudeste (47%). Destaca-se nas capitais (61%) e murcha nas cidades das periferias das metrópoles (52%). É a marca dos jovens com menos de 25 anos (64%) e dos mais ricos (72%).

A pesquisa do Ibope faz parte de um levantamento global de opinião pública realizado em 65 países pela rede WIN, que reúne alguns dos maiores institutos de pesquisa do mundo. Apesar da diminuição das expectativas de melhora, o Brasil ainda aparece em 7º lugar no ranking das nações mais otimistas. As informações são do jornal O Estado de S. Paulo.

One Percent of Population Responsible for 63% of Violent Crime, Swedish Study Reveals (Science Daily)

Dec. 6, 2013 — The majority of all violent crime in Sweden is committed by a small number of people. They are almost all male (92%) who early in life develops violent criminality, substance abuse problems, often diagnosed with personality disorders and commit large number non-violent crimes. These are the findings of researchers at Sahlgrenska Academy who have examined 2.5 million people in Swedish criminal and population registers.

In this study, the Gothenburg researchers matched all convictions for violent crime in Sweden between 1973 and 2004 with nation-wide population register for those born between 1958 to 1980 (2.5 million).

Of the 2.5 million individuals included in the study, 4 percent were convicted of at least one violent crime, 93,642 individuals in total. Of these convicted at least once, 26 percent were re-convicted three or more times, thus resulting in 1 percent of the population (23,342 individuals) accounting for 63 percent of all violent crime convictions during the study period.

“Our results show that 4 percent of those who have three or more violent crime convictions have psychotic disorders, such as schizophrenia and bipolar disorder. Psychotic disorders are twice as common among repeat offenders as in the general population, but despite this fact they constitute a very small proportion of the repeat offenders,” says Örjan Falk, researcher at Sahlgrenska Academy.

One finding the Gothenburg researchers present is that “acts of insanity” that receive a great deal of mass media coverage, committed by someone with a severe psychiatric disorder, are not responsible for the majority of violent crimes.

According to the researchers, the study’s results are important to crime prevention efforts.

“This helps us identify which individuals and groups in need of special attention and extra resources for intervention. A discussion on the efficacy of punishment (prison sentences) for this group is needed as well, and we would like to initiate a debate on what kind of criminological and medical action that could be meaningful to invest in,” says Örjan Falk.

Studies like this one are often used as arguments for more stringent sentences and US principles like “three strikes and you’re out.” What are your views on this?

“Just locking those who commit three or more violent crimes away for life is of course a compelling idea from a societal protective point of view, but could result in some undesirable consequences such as an escalation of serious violence in connection with police intervention and stronger motives for perpetrators of repeat violence to threaten and attack witnesses to avoid life sentences. It is also a fact that a large number of violent crimes are committed inside the penal system.”

“And from a moral standpoint it would mean that we give up on these, in many ways, broken individuals who most likely would be helped by intensive psychiatric treatments or other kind of interventions. There are also other plausible alternatives to prison for those who persistently relapse into violent crime, such as highly intensive monitoring, electronic monitoring and of course the continuing development of specially targeted treatment programs. This would initially entail a higher cost to society, but over a longer period of time would reduce the total number of violent crimes and thereby reduce a large part of the suffering and costs that result from violent crimes,” says Örjan Falk.

“I first and foremost advocate a greater focus on children and adolescents who exhibit signs of developing violent behavior and who are at the risk of later becoming repeat offenders of violent crime.”

Journal Reference:

  1. Örjan Falk, Märta Wallinius, Sebastian Lundström, Thomas Frisell, Henrik Anckarsäter, Nóra Kerekes. The 1 % of the population accountable for 63 % of all violent crime convictionsSocial Psychiatry and Psychiatric Epidemiology, 2013; DOI: 10.1007/s00127-013-0783-y

Flap Over Study Linking Poverty to Biology Exposes Gulfs Among Disciplines (Chronicle of Higher Education)

February 1, 2013

Flap Over Study Linking Poverty to Biology Exposes Gulfs Among Disciplines 1

 Photo: iStock.

A study by two economists that used genetic diversity as a proxy for ethnic and cultural diversity has drawn fierce rebuttals from anthropologists and geneticists.

By Paul Voosen

Oded Galor and Quamrul Ashraf once thought their research into the causes of societal wealth would be seen as a celebration of diversity. However it has been described, though, it has certainly not been celebrated. Instead, it has sparked a dispute among scholars in several disciplines, many of whom are dubious of any work linking societal behavior to genetics. In the latest installment of the debate, 18 Harvard University scientists have called their work “seriously flawed on both factual and methodological grounds.”

Mr. Galor and Mr. Ashraf, economists at Brown University and Williams College, respectively, have long been fascinated by the historical roots of poverty. Six years ago, they began to wonder if a society’s diversity, in any way, could explain its wealth. They probed tracts of interdisciplinary data and decided they could use records of genetic diversity as a proxy for ethnic and cultural diversity. And after doing so, they found that, yes, a bit of genetic diversity did seem to help a society’s economic growth.

Since last fall, when the pair’s work began to filter out into the broader scientific world, their study has exposed deep rifts in how economists, anthropologists, and geneticists talk—and think. It has provoked calls for caution in how economists use genetic data, and calls of persecution in response. And all of this happened before the study was finally published, in the American Economic Review this month.

“Through this analysis, we’re getting a better understanding of how the world operates in order to alleviate poverty,” Mr. Ashraf said. Any other characterization, he added, is a “gross misunderstanding.”

‘Ethical Quagmires’

A barrage of criticism has been aimed at the study since last fall by a team of anthropologists and geneticists at Harvard. The critique began with a short, stern letter, followed by a rejoinder from the economists; now an expanded version of the Harvard critique will appear in February inCurrent Anthropology.

Fundamentally, the dispute comes down to issues of data selection and statistical power. The paper is a case of “garbage in, garbage out,” the Harvard group says. The indicators of genetic diversity that the economists use stem from only four or five independent points. All the regression analysis in the world can’t change that, said Nick Patterson, a computational biologist at Harvard and MIT’s Broad Institute.

“The data just won’t stand for what you’re claiming,” Mr. Patterson said. “Technical statistical analysis can only do so much for you. … I will bet you that they can’t find a single geneticist in the world who will tell them what they did was right.”

In some respects, the study has become an exemplar for how the nascent field of “genoeconomics,” a discipline that seeks to twin the power of gene sequencing and economics, can go awry. Connections between behavior and genetics rightly need to clear high bars of evidence, said Daniel Benjamin, an economist at Cornell University and a leader in the field who has frequently called for improved rigor.

“It’s an area that’s fraught with an unfortunate history and ethical quagmires,” he said. Mr. Galor and Mr. Ashraf had a creative idea, he added, even if all their analysis doesn’t pass muster.

“I’d like to see more data before I’m convinced that their [theory] is true,” said Mr. Benjamin, who was not affiliated with the study or the critique. The Harvard critics make all sorts of complaints, many of which are valid, he said. “But fundamentally the issue is that there’s just not that much independent data.”

Claims of ‘Outsiders’

The dispute also exposes issues inside anthropology, added Carl Lipo, an anthropologist at California State University at Long Beach who is known for his study of Easter Island. “Anthropologists have long tried to walk the line whereby we argue that there are biological origins to much of what makes us human, without putting much weight that any particular attribute has its origins in genetics [or] biology,” he said.

The debate often erupts in lower-profile ways and ends with a flurry of anthropologists’ putting down claims by “outsiders,” Mr. Lipo said. (Mr. Ashraf and Mr. Galor are “out on a limb” with their conclusions, he added.) The angry reaction speaks to the limits of anthropology, which has been unable to delineate how genetics reaches up through the idiosyncratic circumstances of culture and history to influence human behavior, he said.

Certainly, that reaction has been painful for the newest pair of outsiders.

Mr. Galor is well known for studying the connections between history and economic development. And like much scientific work, his recent research began in reaction to claims made by Jared Diamond, the famed geographer at the University of California at Los Angeles, that the development of agriculture gave some societies a head start. What other factors could help explain that distribution of wealth? Mr. Galor wondered.

Since records of ethnic or cultural diversity do not exist for the distant past, they chose to use genetic diversity as a proxy. (There is little evidence that it can, or can’t, serve as such a proxy, however.) Teasing out the connection to economics was difficult—diversity could follow growth, or vice versa—but they gave it a shot, Mr. Galor said.

“We had to find some root causes of the [economic] diversity we see across the globe,” he said.

They were acquainted with the “Out of Africa” hypothesis, which explains how modern human beings migrated from Africa in several waves to Asia and, eventually, the Americas. Due to simple genetic laws, those serial waves meant that people in Africa have a higher genetic diversity than those in the Americas. It’s an idea that found support in genetic sequencing of native populations, if only at the continental scale.

Combining the genetics with population-density estimates—data the Harvard group says are outdated—along with deep statistical analysis, the economists found that the low and high diversity found among Native Americans and Africans, respectively, was detrimental to development. Meanwhile, they found a sweet spot of diversity in Europe and Asia. And they stated the link in sometimes strong, causal language, prompting another bitter discussion with the Harvard group over correlation and causation.

An ‘Artifact’ of the Data?

The list of flaws found by the Harvard group is long, but it boils down to the fact that no one has ever made a solid connection between genes and poverty before, even if genetics are used only as a proxy, said Jade d’Alpoim Guedes, a graduate student in anthropology at Harvard and the critique’s lead author.

“If my research comes up with findings that change everything we know,” Ms. d’Alpoim Guedes said, “I’d really check all of my input sources. … Can I honestly say that this pattern that I see is true and not an artifact of the input data?”

Mr. Ashraf and Mr. Galor found the response to their study, which they had previewed many times over the years to other economists, to be puzzling and emotionally charged. Their critics refused to engage, they said. They would have loved to present their work to a lecture hall full of anthropologists at Harvard. (Mr. Ashraf, who’s married to an anthropologist, is a visiting scholar this year at Harvard’s Kennedy School.) Their gestures were spurned, they said.

“We really felt like it was an inquisition,” Mr. Galor said. “The tone and level of these arguments were really so unscientific.”

Mr. Patterson, the computational biologist, doesn’t quite agree. The conflict has many roots but derives in large part from differing standards for publication. Submit the same paper to a leading genetics journal, he said, and it would not have even reached review.

“They’d laugh at you,” Mr. Patterson said. “This doesn’t even remotely meet the cut.”

In the end, it’s unfortunate the economists chose genetic diversity as their proxy for ethnic diversity, added Mr. Benjamin, the Cornell economist. They’re trying to get at an interesting point. “The genetics is really secondary, and not really that important,” he said. “It’s just something that they’re using as a measure of the amount of ethnic diversity.”

Mr. Benjamin also wishes they had used more care in their language and presentation.

“It’s not enough to be careful in the way we use genetic data,” he said. “We need to bend over backwards being careful in the way we talk about what the data means; how we interpret findings that relate to genetic data; and how we communicate those findings to readers and the public.”

Mr. Ashraf and Mr. Galor have not decided whether to respond to the Harvard critique. They say they can, point by point, but that ultimately, the American Economic Review’s decision to publish the paper as its lead study validates their work. They want to push forward on their research. They’ve just released a draft study that probes deeper into the connections between genetic diversity and cultural fragmentation, Mr. Ashraf said.

“There is much more to learn from this data,” he said. “It is certainly not the final word.”

Understanding the Historical Probability of Drought (Science Daily)

Jan. 30, 2013 — Droughts can severely limit crop growth, causing yearly losses of around $8 billion in the United States. But it may be possible to minimize those losses if farmers can synchronize the growth of crops with periods of time when drought is less likely to occur. Researchers from Oklahoma State University are working to create a reliable “calendar” of seasonal drought patterns that could help farmers optimize crop production by avoiding days prone to drought.

Historical probabilities of drought, which can point to days on which crop water stress is likely, are often calculated using atmospheric data such as rainfall and temperatures. However, those measurements do not consider the soil properties of individual fields or sites.

“Atmospheric variables do not take into account soil moisture,” explains Tyson Ochsner, lead author of the study. “And soil moisture can provide an important buffer against short-term precipitation deficits.”

In an attempt to more accurately assess drought probabilities, Ochsner and co-authors, Guilherme Torres and Romulo Lollato, used 15 years of soil moisture measurements from eight locations across Oklahoma to calculate soil water deficits and determine the days on which dry conditions would be likely. Results of the study, which began as a student-led class research project, were published online Jan. 29 inAgronomy Journal. The researchers found that soil water deficits more successfully identified periods during which plants were likely to be water stressed than did traditional atmospheric measurements when used as proposed by previous research.

Soil water deficit is defined in the study as the difference between the capacity of the soil to hold water and the actual water content calculated from long-term soil moisture measurements. Researchers then compared that soil water deficit to a threshold at which plants would experience water stress and, therefore, drought conditions. The threshold was determined for each study site since available water, a factor used to calculate threshold, is affected by specific soil characteristics.

“The soil water contents differ across sites and depths depending on the sand, silt, and clay contents,” says Ochsner. “Readily available water is a site- and depth-specific parameter.”

Upon calculating soil water deficits and stress thresholds for the study sites, the research team compared their assessment of drought probability to assessments made using atmospheric data. They found that a previously developed method using atmospheric data often underestimated drought conditions, while soil water deficits measurements more accurately and consistently assessed drought probabilities. Therefore, the researchers suggest that soil water data be used whenever it is available to create a picture of the days on which drought conditions are likely.

If soil measurements are not available, however, the researchers recommend that the calculations used for atmospheric assessments be reconfigured to be more accurate. The authors made two such changes in their study. First, they decreased the threshold at which plants were deemed stressed, thus allowing a smaller deficit to be considered a drought condition. They also increased the number of days over which atmospheric deficits were summed. Those two changes provided estimates that better agreed with soil water deficit probabilities.

Further research is needed, says Ochsner, to optimize atmospheric calculations and provide accurate estimations for those without soil water data. “We are in a time of rapid increase in the availability of soil moisture data, but many users will still have to rely on the atmospheric water deficit method for locations where soil moisture data are insufficient.”

Regardless of the method used, Ochsner and his team hope that their research will help farmers better plan the cultivation of their crops and avoid costly losses to drought conditions.

Journal Reference:

  1. Guilherme M. Torres, Romulo P. Lollato, Tyson E. Ochsner.Comparison of Drought Probability Assessments Based on Atmospheric Water Deficit and Soil Water Deficit.Agronomy Journal, 2013; DOI: 10.2134/agronj2012.0295

Fraud Case Seen as a Red Flag for Psychology Research (N.Y. Times)


Published: November 2, 2011

A well-known psychologist in the Netherlands whose work has been published widely in professional journals falsified data and made up entire experiments, an investigating committee has found. Experts say the case exposes deep flaws in the way science is done in a field,psychology, that has only recently earned a fragile respectability.

Joris Buijs/Pve

The psychologist Diederik Stapel in an undated photograph. “I have failed as a scientist and researcher,” he said in a statement after a committee found problems in dozens of his papers.

The psychologist, Diederik Stapel, of Tilburg University, committed academic fraud in “several dozen” published papers, many accepted in respected journals and reported in the news media, according to a report released on Monday by the three Dutch institutions where he has worked: the University of Groningen, the University of Amsterdam, and Tilburg. The journal Science, which published one of Dr. Stapel’s papers in April, posted an “editorial expression of concern” about the research online on Tuesday.

The scandal, involving about a decade of work, is the latest in a string of embarrassments in a field that critics and statisticians say badly needs to overhaul how it treats research results. In recent years, psychologists have reported a raft of findings on race biases, brain imaging and even extrasensory perception that have not stood up to scrutiny. Outright fraud may be rare, these experts say, but they contend that Dr. Stapel took advantage of a system that allows researchers to operate in near secrecy and massage data to find what they want to find, without much fear of being challenged.

“The big problem is that the culture is such that researchers spin their work in a way that tells a prettier story than what they really found,” said Jonathan Schooler, a psychologist at the University of California, Santa Barbara. “It’s almost like everyone is on steroids, and to compete you have to take steroids as well.”

In a prolific career, Dr. Stapel published papers on the effect of power on hypocrisy, on racial stereotyping and on how advertisements affect how people view themselves. Many of his findings appeared in newspapers around the world, including The New York Times, which reported in December on his study about advertising and identity.

In a statement posted Monday on Tilburg University’s Web site, Dr. Stapel apologized to his colleagues. “I have failed as a scientist and researcher,” it read, in part. “I feel ashamed for it and have great regret.”

More than a dozen doctoral theses that he oversaw are also questionable, the investigators concluded, after interviewing former students, co-authors and colleagues. Dr. Stapel has published about 150 papers, many of which, like the advertising study, seem devised to make a splash in the media. The study published in Science this year claimed that white people became more likely to “stereotype and discriminate” against black people when they were in a messy environment, versus an organized one. Another study, published in 2009, claimed that people judged job applicants as more competent if they had a male voice. The investigating committee did not post a list of papers that it had found fraudulent.

Dr. Stapel was able to operate for so long, the committee said, in large measure because he was “lord of the data,” the only person who saw the experimental evidence that had been gathered (or fabricated). This is a widespread problem in psychology, said Jelte M. Wicherts, a psychologist at the University of Amsterdam. In a recent survey, two-thirds of Dutch research psychologists said they did not make their raw data available for other researchers to see. “This is in violation of ethical rules established in the field,” Dr. Wicherts said.

In a survey of more than 2,000 American psychologists scheduled to be published this year, Leslie John of Harvard Business School and two colleagues found that 70 percent had acknowledged, anonymously, to cutting some corners in reporting data. About a third said they had reported an unexpected finding as predicted from the start, and about 1 percent admitted to falsifying data.

Also common is a self-serving statistical sloppiness. In an analysis published this year, Dr. Wicherts and Marjan Bakker, also at the University of Amsterdam, searched a random sample of 281 psychology papers for statistical errors. They found that about half of the papers in high-end journals contained some statistical error, and that about 15 percent of all papers had at least one error that changed a reported finding — almost always in opposition to the authors’ hypothesis.

The American Psychological Association, the field’s largest and most influential publisher of results, “is very concerned about scientific ethics and having only reliable and valid research findings within the literature,” said Kim I. Mills, a spokeswoman. “We will move to retract any invalid research as such articles are clearly identified.”

Researchers in psychology are certainly aware of the issue. In recent years, some have mocked studies showing correlations between activity on brain images and personality measures as “voodoo” science, and a controversy over statistics erupted in January after The Journal of Personality and Social Psychology accepted a paper purporting to show evidence of extrasensory perception. In cases like these, the authors being challenged are often reluctant to share their raw data. But an analysis of 49 studies appearing Wednesday in the journal PLoS One, by Dr. Wicherts, Dr. Bakker and Dylan Molenaar, found that the more reluctant that scientists were to share their data, the more likely that evidence contradicted their reported findings.

“We know the general tendency of humans to draw the conclusions they want to draw — there’s a different threshold,” said Joseph P. Simmons, a psychologist at the University of Pennsylvania’s Wharton School. “With findings we want to see, we ask, ‘Can I believe this?’ With those we don’t, we ask, ‘Must I believe this?’ ”

But reviewers working for psychology journals rarely take this into account in any rigorous way. Neither do they typically ask to see the original data. While many psychologists shade and spin, Dr. Stapel went ahead and drew any conclusion he wanted.

“We have the technology to share data and publish our initial hypotheses, and now’s the time,” Dr. Schooler said. “It would clean up the field’s act in a very big way.”