Arquivo da tag: Tempo

Time and Events (Knowledge Ecology)

March 24, 2015 / Adam Robbert


[Image: Mohammad Reza Domiri Ganji]

I just came across Massimo Pigliucci’s interesting review of Mangabeira Unger and Lee Smolin’s book The Singular Universe and the Reality of Time. There are more than a few Whiteheadian themes explored throughout the review, including Unger and Smolin’s (U&S) view that time should be read as an abstraction from events and that the “laws” of the universe are better conceptualized as habits or contingent causal connections secured by the ongoingness of those events rather than as eternal, abstract formalisms. (This entangling of laws with phenomena, of events with time, is one of the ways we can think towards an ecological metaphysics.)

But what I am particularly interested in is the short discussion on Platonism and mathematical realism. I sometimes think of mathematical realism as the view that numbers, and thus the abstract formalisms they create, are real, mind-independent entities, and that, given this view, mathematical equations are discovered (i.e., they actually exist in the world) rather than created (i.e., humans made them up to fill this or that pragmatic need). The review makes it clear, though, that this definition doesn’t push things far enough for the mathematical realist. Instead, the mathematical realist argues for not just the mind-independent existence of numbers but also their nature-independence—math as independent not just of all knowers but of all natural phenomena, past, present, or future.

U&S present an alternative to mathematical realisms of this variety that I find compelling and more consistent with the view that laws are habits and that time is an abstraction from events. Here’s the reviewer’s take on U&S’s argument (the review starts with a quote from U&S and then unpacks it a bit):

“The third idea is the selective realism of mathematics. (We use realism here in the sense of relation to the one real natural world, in opposition to what is often described as mathematical Platonism: a belief in the real existence, apart from nature, of mathematical entities.) Now dominant conceptions of what the most basic natural science is and can become have been formed in the context of beliefs about mathematics and of its relation to both science and nature. The laws of nature, the discerning of which has been the supreme object of science, are supposed to be written in the language of mathematics.” (p. xii)

But they are not, because there are no “laws” and because mathematics is a human (very useful) invention, not a mysterious sixth sense capable of probing a deeper reality beyond the empirical. This needs some unpacking, of course. Let me start with mathematics, then move to the issue of natural laws.

I was myself, until recently, intrigued by mathematical Platonism [8]. It is a compelling idea, which makes sense of the “unreasonable effectiveness of mathematics” as Eugene Wigner famously put it [9]. It is a position shared by a good number of mathematicians and philosophers of mathematics. It is based on the strong gut feeling that mathematicians have that they don’t invent mathematical formalisms, they “discover” them, in a way analogous to what empirical scientists do with features of the outside world. It is also supported by an argument analogous to the defense of realism about scientific theories and advanced by Hilary Putnam: it would be nothing short of miraculous, it is suggested, if mathematics were the arbitrary creation of the human mind, and yet time and again it turns out to be spectacularly helpful to scientists [10].

But there are, of course, equally (more?) powerful counterarguments, which are in part discussed by Unger in the first part of the book. To begin with, the whole thing smells a bit too uncomfortably of mysticism: where, exactly, is this realm of mathematical objects? What is its ontological status? Moreover, and relatedly, how is it that human beings have somehow developed the uncanny ability to access such realm? We know how we can access, however imperfectly and indirectly, the physical world: we evolved a battery of sensorial capabilities to navigate that world in order to survive and reproduce, and science has been a continuous quest for expanding the power of our senses by way of more and more sophisticated instrumentation, to gain access to more and more (and increasingly less relevant to our biological fitness!) aspects of the world.

Indeed, it is precisely this analogy with science that powerfully hints to an alternative, naturalistic interpretation of the (un)reasonable effectiveness of mathematics. Math too started out as a way to do useful things in the world, mostly to count (arithmetics) and to measure up the world and divide it into manageable chunks (geometry). Mathematicians then developed their own (conceptual, as opposed to empirical) tools to understand more and more sophisticated and less immediate aspects of the world, in the process eventually abstracting entirely from such a world in pursuit of internally generated questions (what we today call “pure” mathematics).

U&S do not by any means deny the power and effectiveness of mathematics. But they also remind us that precisely what makes it so useful and general — its abstraction from the particularities of the world, and specifically its inability to deal with temporal asymmetries (mathematical equations in fundamental physics are time-symmetric, and asymmetries have to be imported as externally imposed background conditions) — also makes it subordinate to empirical science when it comes to understanding the one real world.

This empiricist reading of mathematics offers a refreshing respite to the resurgence of a certain Idealism in some continental circles (perhaps most interestingly spearheaded by Quentin Meillassoux). I’ve heard mention a few times now that the various factions squaring off within continental philosophy’s avant garde can be roughly approximated as a renewed encounter between Kantian finitude and Hegelian absolutism. It’s probably a bit too stark of a binary, but there’s a sense in which the stakes of these arguments really do center on the ontological status of mathematics in the natural world. It’s not a direct focus of my own research interests, really, but it’s a fascinating set of questions nonetheless.

The Question That Could Unite Quantum Theory With General Relativity: Is Spacetime Countable? (The Physics Arxiv Blog)

Current thinking about quantum gravity assumes that spacetime exists in countable lumps, like grains of sand. That can’t be right, can it?

The Physics arXiv Blog

One of the big problems with quantum gravity is that it generates infinities that have no physical meaning. These come about because quantum mechanics implies that accurate measurements of the universe on the tiniest scales require high-energy. But when the scale becomes very small, the energy density associated with a measurement is so great that it should lead to the formation of a black hole, which would paradoxically ruin the measurement that created it.

These kinds of infinities are something of an annoyance. Their paradoxical nature makes them hard to deal with mathematically and difficult to reconcile with our knowledge of the universe, which as far as we can tell, avoids this kind of paradoxical behaviour.

So physicists have invented a way to deal with infinities called renormalisation. In essence, theorists assume that space-time is not infinitely divisible. Instead, there is a minimum scale beyond which nothing can be smaller, the so-called Planck scale. This limit ensures that energy densities never become high enough to create black holes.

This is also equivalent to saying that space-time is discrete, or as a mathematician might put it, countable. In other words, it is possible to allocate a number to each discrete volume of space-time making it countable, like grains of sand on a beach or atoms in the universe. That means space-time is entirely unlike uncountable things, such as straight lines which are infinitely divisible, or the degrees of freedom of in the fields that constitute the basic building blocks of physics, which have been mathematically proven to be uncountable.

This discreteness is certainly useful but it also raises an important question: is it right? Can the universe really be fundamentally discrete, like a computer model? Today, Sean Gryb from Radboud University in the Netherlands argues that an alternative approach is emerging in the form of a new formulation of gravity called shape dynamics. This new approach implies that spacetime is smooth and uncountable, an idea that could have far-reaching consequences for the way we understand the universe.

At the heart of this new theory is the concept of scale invariance. This is the idea that an object or law has the same properties regardless of the scale at which it is viewed.

The current laws of physics generally do not have this property. Quantum mechanics, for example, operates only at the smallest scale, while gravity operates at the largest. So it is easy to see why scale invariance is a property that theorists drool over — a scale invariant description of the universe must encompass both quantum theory and gravity.

Shape dynamics does just this, says Gryb. It does this by ignoring many ordinary features of physical objects, such as their position within the universe. Instead, it focuses on objects’ relationships to each other, such as the angles between them and the shape that this makes (hence the term shape dynamics).

This approach immediately leads to a scale invariant picture of reality. Angles are scale invariant because they are the same regardless of the scale at which they are viewed. So the new thinking is describe the universe as a series of instantaneous snapshots on the relationship between objects.

The result is a scale invariance that is purely spatial. But this, of course, is very different to the more significant notion of spacetime scale invariance.

So a key part of Gryb’s work is in using the mathematical ideas of symmetry to show that spatial scale invariance can be transformed into spacetime scale invariance.

Specifically, Gryb shows exactly how this works in a closed, expanding universe in which the laws of physics are the same for all inertial observers and for whom the speed of light is finite and constant.

If those last two conditions sound familiar, it’s because they are the postulates Einstein used to derive special relativity. And Gryb’s formulation is equivalent to this. “Observers in Einstein’s special theory of relativity can be reinterpreted as observers in a scale-invariant space,” he says.

That raises some interesting possibilities for a broader theory of theuniversegravity, just as special relativity lead to a broader theory of gravity in the form of general relativity.

Gryb describes how it is possible to create models of curved space-time by gluing together local patches of flat space-times. “Could it be possible to do something similar in Shape Dynamics; i.e., glue together local patches of conformally flat spaces that could then be related to General Relativity?” he asks.

Nobody has succeeded in doing this on a model that includes the three dimensions of space and one of time but this is early days for shape dynamics. But Gryb and others are working on the problem.

He is clearly excited by the future possibilities, saying that it suggests a new way to think about quantum gravity in scale invariant terms. “This would provide a new mechanism for being able to deal with the uncountably infinite number of degrees of freedom in the gravitational field without introducing discreteness at the Plank scale,” he says.

That’s an exciting new approach. And it is one expounded by a fresh new voice who is able to explain his ideas in a highly readable fashion to a broad audience. There is no way of knowing how this line of thinking will evolve but we’ll look forward to more instalments from Gryb.

Ref: : Is Spacetime Countable?

Quantum Experiment Shows How Time ‘Emerges’ from Entanglement (The Physics arXiv Blog)

Time is an emergent phenomenon that is a side effect of quantum entanglement, say physicists. And they have the first experimental results to prove it

The Physics arXiv Blog

When the new ideas of quantum mechanics spread through science like wildfire in the first half of the 20th century, one of the first things physicists did was to apply them to gravity and general relativity. The results were not pretty.

It immediately became clear that these two foundations of modern physics were entirely incompatible. When physicists attempted to meld the approaches, the resulting equations were bedeviled with infinities making it impossible to make sense of the results.

Then in the mid-1960s, there was a breakthrough. The physicists John Wheeler and Bryce DeWitt successfully combined the previously incompatible ideas in a key result that has since become known as the Wheeler-DeWitt equation. This is important because it avoids the troublesome infinites—a huge advance.

But it didn’t take physicists long to realise that while the Wheeler-DeWitt equation solved one significant problem, it introduced another. The new problem was that time played no role in this equation. In effect, it says that nothing ever happens in the universe, a prediction that is clearly at odds with the observational evidence.

This conundrum, which physicists call ‘the problem of time’, has proved to be a thorn in flesh of modern physicists, who have tried to ignore it but with little success.

Then in 1983, the theorists Don Page and William Wootters came up with a novel solution based on the quantum phenomenon of entanglement. This is the exotic property in which two quantum particles share the same existence, even though they are physically separated.

Entanglement is a deep and powerful link and Page and Wootters showed how it can be used to measure time. Their idea was that the way a pair of entangled particles evolve is a kind of clock that can be used to measure change.

But the results depend on how the observation is made. One way to do this is to compare the change in the entangled particles with an external clock that is entirely independent of the universe. This is equivalent to god-like observer outside the universe measuring the evolution of the particles using an external clock.

In this case, Page and Wootters showed that the particles would appear entirely unchanging—that time would not exist in this scenario.

But there is another way to do it that gives a different result. This is for an observer inside the universe to compare the evolution of the particles with the rest of the universe. In this case, the internal observer would see a change and this difference in the evolution of entangled particles compared with everything else is an important a measure of time.

This is an elegant and powerful idea. It suggests that time is an emergent phenomenon that comes about because of the nature of entanglement. And it exists only for observers inside the universe. Any god-like observer outside sees a static, unchanging universe, just as the Wheeler-DeWitt equations predict.

Of course, without experimental verification, Page and Wootter’s ideas are little more than a philosophical curiosity. And since it is never possible to have an observer outside the universe, there seemed little chance of ever testing the idea.

Until now. Today, Ekaterina Moreva at the Istituto Nazionale di Ricerca Metrologica (INRIM) in Turin, Italy, and a few pals have performed the first experimental test of Page and Wootters’ ideas. And they confirm that time is indeed an emergent phenomenon for ‘internal’ observers but absent for external ones.

The experiment involves the creation of a toy universe consisting of a pair of entangled photons and an observer that can measure their state in one of two ways. In the first, the observer measures the evolution of the system by becoming entangled with it. In the second, a god-like observer measures the evolution against an external clock which is entirely independent of the toy universe.

The experimental details are straightforward. The entangled photons each have a polarisation which can be changed by passing it through a birefringent plate. In the first set up, the observer measures the polarisation of one photon, thereby becoming entangled with it. He or she then compares this with the polarisation of the second photon. The difference is a measure of time.

In the second set up, the photons again both pass through the birefringent plates which change their polarisations. However, in this case, the observer only measures the global properties of both photons by comparing them against an independent clock.

In this case, the observer cannot detect any difference between the photons without becoming entangled with one or the other. And if there is no difference, the system appears static. In other words, time does not emerge.

“Although extremely simple, our model captures the two, seemingly contradictory, properties of the Page-Wootters mechanism,” say Moreva and co.

That’s an impressive experiment. Emergence is a popular idea in science. In particular, physicists have recently become excited about the idea that gravity is an emergent phenomenon. So it’s a relatively small step to think that time may emerge in a similar way.

What emergent gravity has lacked, of course, is an experimental demonstration that shows how it works in practice. That’s why Moreva and co’s work is significant. It places an abstract and exotic idea on firm experimental footing for the first time.

Perhaps most significant of all is the implication that quantum mechanics and general relativity are not so incompatible after all. When viewed through the lens of entanglement, the famous ‘problem of time’ just melts away.

The next step will be to extend the idea further, particularly to the macroscopic scale. It’s one thing to show how time emerges for photons, it’s quite another to show how it emerges for larger things such as humans and train timetables.

And therein lies another challenge.

Ref: :Time From Quantum Entanglement: An Experimental Illustration

Partículas telepáticas (Folha de S.Paulo)


ilustração JOSÉ PATRÍCIO

28/12/2014 03h08

RESUMO Há 50 anos, o físico norte-irlandês John Bell (1928-90) chegou a um resultado que demonstra a natureza “fantasmagórica” da realidade no mundo atômico e subatômico. Seu teorema é hoje visto como a arma mais eficaz contra a espionagem, algo que garantirá, num futuro talvez próximo, a privacidade absoluta das informações.


Um país da América do Sul quer manter a privacidade de suas informações estratégicas, mas se vê obrigado a comprar os equipamentos para essa tarefa de um país bem mais avançado tecnologicamente. Esses aparelhos, porém, podem estar “grampeados”.

Surge, então, a dúvida quase óbvia: haverá, no futuro, privacidade 100% garantida? Sim. E isso vale até mesmo para um país que compre a tecnologia antiespionagem do “inimigo”.
O que possibilita a resposta afirmativa acima é o resultado que já foi classificado como o mais profundo da ciência: o teorema de Bell, que trata de uma das perguntas filosóficas mais agudas e penetrantes feitas até hoje e que alicerça o próprio conhecimento: o que é a realidade? O teorema -que neste ano completou seu 50º aniversário- garante que a realidade, em sua dimensão mais íntima, é inimaginavelmente estranha.

José Patricio

A história do teorema, de sua comprovação experimental e de suas aplicações modernas tem vários começos. Talvez, aqui, o mais apropriado seja um artigo publicado em 1935 pelo físico de origem alemã Albert Einstein (1879-1955) e dois colaboradores, o russo Boris Podolsky (1896-1966) e o americano Nathan Rosen (1909-95).

Conhecido como paradoxo EPR (iniciais dos sobrenomes dos autores), o experimento teórico ali descrito resumia uma longa insatisfação de Einstein com os rumos que a mecânica quântica, a teoria dos fenômenos na escala atômica, havia tomado. Inicialmente, causou amargo no paladar do autor da relatividade o fato de essa teoria, desenvolvida na década de 1920, fornecer apenas a probabilidade de um fenômeno ocorrer. Isso contrastava com a “certeza” (determinismo) da física dita clássica, a que rege os fenômenos macroscópicos.

Einstein, na verdade, estranhava sua criatura, pois havia sido um dos pais da teoria quântica. Com alguma relutância inicial, o indeterminismo da mecânica quântica acabou digerido por ele. Algo, porém, nunca lhe passou pela garganta: a não localidade, ou seja, o estranhíssimo fato de algo aqui influenciar instantaneamente algo ali -mesmo que esse “ali” esteja muito distante. Einstein acreditava que coisas distantes tinham realidades independentes.

Einstein chegou a comparar -vale salientar que é só uma analogia- a não localidade a um tipo de telepatia. Mas a definição mais famosa dada por Einstein a essa estranheza foi “fantasmagórica ação a distância”.


A essência do argumento do paradoxo EPR é o seguinte: sob condições especiais, duas partículas que interagiram e se separaram acabam em um estado denominado emaranhado, como se fossem “gêmeas telepáticas”. De forma menos pictórica, diz-se que as partículas estão conectadas (ou correlacionadas, como preferem os físicos) e assim seguem, mesmo depois da interação.

A estranheza maior vem agora: se uma das partículas desse par for perturbada -ou seja, sofrer uma medida qualquer, como dizem os físicos-, a outra “sente” essa perturbação instantaneamente. E isso independe da distância entre as duas partículas. Podem estar separadas por anos-luz.

Os autores do paradoxo EPR diziam que era impossível imaginar que a natureza permitisse a conexão instantânea entre os dois objetos. E, por meio de argumentação lógica e complexa, Einstein, Podolsky e Rosen concluíam: a mecânica quântica tem que ser incompleta. Portanto, provisória.


Uma leitura apressada (porém, muito comum) do paradoxo EPR é dizer que uma ação instantânea (não local, no vocabulário da física) é impossível, porque violaria a relatividade de Einstein: nada pode viajar com velocidade superior à da luz no vácuo, 300 mil km/s.

No entanto, a não localidade atuaria apenas na dimensão microscópica -não pode ser usada, por exemplo, para mandar ou receber mensagens. No mundo macroscópico, se quisermos fazer isso, teremos que usar sinais que nunca viajam com velocidade maior que a da luz no vácuo. Ou seja, relatividade é preservada.

A não localidade tem a ver com conexões persistentes (e misteriosas) entre dois objetos: interferir com (alterar, mudar etc.) um deles interfere com (altera, muda etc.) o outro. Instantaneamente. O simples ato de observar um deles interfere no estado do outro.

Einstein não gostou da versão final do artigo de 1935, que só viu impressa -a redação ficou a cargo de Podolsky. Ele havia imaginado um texto menos filosófico. Pouco meses depois, viria a resposta do físico dinamarquês Niels Bohr (1885-1962) ao EPR -poucos anos antes, Einstein e Bohr haviam protagonizado o que para muitos é um dos debates filosóficos mais importantes da história: o tema era a “alma da natureza”, nas palavras de um filósofo da física.

Em sua resposta ao EPR, Bohr reafirmou tanto a completude da mecânica quântica quanto sua visão antirrealista do universo atômico: não é possível dizer que uma entidade quântica (elétron, próton, fóton etc.) tenha uma propriedade antes que esta seja medida. Ou seja, tal propriedade não seria real, não estaria oculta à espera de um aparelho de medida ou qualquer interferência (até mesmo o olhar) do observador. Quanto a isso, Einstein, mais tarde, ironizaria: “Será que a Lua só existe quando olhamos para ela?”.


Um modo de entender o que seja uma teoria determinista é o seguinte: é aquela na qual se pressupõe que a propriedade a ser medida está presente (ou “escondida”) no objeto e pode ser determinada com certeza. Os físicos denominam esse tipo de teoria com um nome bem apropriado: teoria de variáveis ocultas.

Em uma teoria de variáveis ocultas, a tal propriedade (conhecida ou não) existe, é real. Daí, por vezes, os filósofos classificarem esse cenário como realismo -Einstein gostava do termo “realidade objetiva”: as coisas existem sem a necessidade de serem observadas.

Mas, na década de 1930, um teorema havia provado que seria impossível haver uma versão da mecânica quântica como uma teoria de variáveis ocultas. O feito era de um dos maiores matemáticos de todos os tempos, o húngaro John von Neumann (1903-57). E, fato não raro na história da ciência, valeu o argumento da autoridade em vez da autoridade do argumento.

O teorema de Von Neumann era perfeito do ponto de vista matemático, mas “errado, tolo” e “infantil” (como chegou a ser classificado) no âmbito da física, pois partia de uma premissa equivocada. Sabe-se hoje que Einstein desconfiou dessa premissa: “Temos que aceitar isso como verdade?”, perguntou a dois colegas. Mas não foi além.

O teorema de Von Neumann serviu, porém, para praticamente pisotear a versão determinista (portanto, de variáveis ocultas) da mecânica quântica feita em 1927 pelo nobre francês Louis de Broglie (1892-1987), Nobel de Física de 1929, que acabou desistindo dessa linha de pesquisa.

Por exatas duas décadas, o teorema de Von Neumann e as ideias de Bohr -que formou em torno dele uma influente escola de jovens notáveis- dissuadiram tentativas de buscar uma versão determinista da mecânica quântica.

Mas, em 1952, o físico norte-americano David Bohm (1917-92), inspirado pelas ideias de De Broglie, apresentou uma versão de variáveis ocultas da mecânica quântica -hoje, denominada mecânica quântica bohmiana, homenagem ao pesquisador que trabalhou na década de 1950 na Universidade de São Paulo (USP), quando perseguido nos EUA pelo macarthismo.

A mecânica quântica bohmiana tinha duas características em sua essência: 1) era determinista (ou seja, de variáveis ocultas); 2) era não local (isto é, admitia a ação a distância) -o que fez com que Einstein, localista convicto, perdesse o interesse inicial nela.


Eis que entra em cena a principal personagem desta história: o físico norte-irlandês John Stewart Bell, que, ao tomar conhecimento da mecânica bohmiana, teve uma certeza: o “impossível havia sido feito”. Mais: Von Neumann estava errado.

A mecânica quântica de Bohm -ignorada logo de início pela comunidade de físicos- acabava de cair em terreno fértil: Bell remoía, desde a universidade, como um “hobby”, os fundamentos filosóficos da mecânica quântica (EPR, Von Neumann, De Broglie etc.). E tinha tomado partido nesses debates: era um einsteiniano assumido e achava Bohr obscuro.

Bell nasceu em 28 de junho de 1928, em Belfast, em uma família anglicana sem posses. Deveria ter parado de estudar aos 14 anos, mas, por insistência da mãe, que percebeu os dotes intelectuais do segundo de quatro filhos, foi enviado a uma escola técnica de ensino médio, onde ele aprendeu coisas práticas (carpintaria, construção civil, biblioteconomia etc.).

Formado, aos 16, tentou empregos em escritórios, mas o destino quis que terminasse como técnico preparador de experimentos no departamento de física da Queen’s University, também em Belfast.

Os professores do curso logo perceberam o interesse do técnico pela física e passaram a incentivá-lo, com indicações de leituras e aulas. Com uma bolsa de estudos, Bell se formou em 1948 em física experimental e, no ano seguinte, em física matemática. Em ambos os casos, com louvor.

De 1949 a 1960, Bell trabalhou no Aere (Estabelecimento para a Pesquisa em Energia Atômica), em Harwell, no Reino Unido. Lá conheceria sua futura mulher, a física Mary Ross, sua interlocutora em vários trabalhos sobre física. “Ao olhar novamente esses artigos, vejo-a em todo lugar”, disse Bell, em homenagem recebida em 1987, três anos antes de morrer, de hemorragia cerebral.

Defendeu doutorado em 1956, após um período na Universidade de Birmingham, sob orientação do físico teuto-britânico Rudolf Peierls (1907-95). A tese inclui uma prova de um teorema muito importante da física (teorema CPT), que havia sido descoberto pouco antes por um contemporâneo seu.


Por discordar dos rumos das pesquisas no Aere, o casal decidiu trocar empregos estáveis por posições temporárias no Centro Europeu de Pesquisas Nucleares (Cern), em Genebra (Suíça). Ele na divisão de física teórica; ela, na de aceleradores.

Bell passou 1963 e 1964 trabalhando nos EUA. Lá, encontrou tempo para se dedicar a seu “hobby” intelectual e gestar o resultado que marcaria sua carreira e lhe daria, décadas mais tarde, fama.

Ele se fez a seguinte pergunta: será que a não localidade da teoria de variáveis ocultas de Bohm seria uma característica de qualquer teoria realista da mecânica quântica? Em outras palavras, se as coisas existirem sem serem observadas, elas terão que necessariamente estabelecer entre si aquela fantasmagórica ação a distância?

O teorema de Bell, publicado em 1964, é também conhecido como desigualdade de Bell. Sua matemática não é complexa. De forma muito simplificada, podemos pensar nesse teorema como uma inequação: x ≤ 2 (x menor ou igual a dois), sendo que “x” representa, para nossos propósitos aqui, os resultados de um experimento.

As consequências mais interessantes do teorema de Bell ocorreriam se tal experimento violasse a desigualdade, ou seja, mostrasse que x > 2 (x maior que dois). Nesse caso, teríamos de abrir mão de uma das duas suposições: 1) realismo (as coisas existem sem serem observadas); 2) da localidade (o mundo quântico não permite conexões mais velozes que a luz).

O artigo do teorema não teve grande repercussão -Bell havia feito outro antes, fundamental para ele chegar ao resultado, mas, por erro do editor do periódico, acabou publicado só em 1966.

REBELDIA A retomada das ideias de Bell -e, por conseguinte, do EPR e de Bohm- ganhou momento com fatores externos à física. Muitos anos depois do agitado final dos anos 1960, o físico americano John Clauser recordaria o período: ”A Guerra do Vietnã dominava os pensamentos políticos da minha geração. Sendo um jovem físico naquele período revolucionário, eu naturalmente queria chacoalhar o mundo”.

A ciência, como o resto do mundo, acabou marcada pelo espírito da geração paz e amor; pela luta pelos direitos civis; por maio de 1968; pelas filosofias orientais; pelas drogas psicodélicas; pela telepatia -em uma palavra: pela rebeldia. Que, traduzida para a física, significava se dedicar a uma área herética na academia: interpretações (ou fundamentos) da mecânica quântica. Mas fazer isso aumentava consideravelmente as chances de um jovem físico arruinar sua carreira: EPR, Bohm e Bell eram considerados temas filosóficos, e não físicos.

O elemento final para que o campo tabu de estudos ganhasse fôlego foi a crise do petróleo de 1973, que diminuiu a oferta de postos para jovens pesquisadores -incluindo físicos. À rebeldia somou-se a recessão.
Clauser, com mais três colegas, Abner Shimony, Richard Holt e Michael Horne, publicou suas primeiras ideias sobre o assunto em 1969, com o título “Proposta de Experimento para Testar Teorias de Variáveis Ocultas”. O quarteto fez isso em parte por ter notado que a desigualdade de Bell poderia ser testada com fótons, que são mais fáceis de serem gerados. Até então se pensava em arranjos experimentais mais complicados.

Em 1972, a tal proposta virou experimento -feito por Clauser e Stuart Freedman (1944-2012)-, e a desigualdade de Bell foi violada.

O mundo parecia ser não local -ironicamente, Clauser era localista! Mas só parecia: o experimento seguiu, por cerca de uma década, incompreendido e, portanto, desconsiderado pela comunidade de físicos. Mas aqueles resultados serviram a reforçar algo importante: fundamentos da mecânica quântica não eram só filosofia. Eram também física experimental.


O aperfeiçoamento de equipamentos de óptica (incluindo lasers) permitiu que, em 1982, um experimento se tornasse um clássico da área.

Pouco antes, o físico francês Alain Aspect havia decidido iniciar um doutorado tardio, mesmo sendo um físico experimental experiente. Escolheu como tema o teorema de Bell. Foi ao encontro do colega norte-irlandês no Cern. Em entrevista ao físico Ivan dos Santos Oliveira, do Centro Brasileiro de Pesquisas Físicas, no Rio de Janeiro, e ao autor deste texto, Aspect contou o seguinte diálogo entre ele e Bell. “Você tem um cargo estável?”, perguntou Bell. “Sim”, disse Aspect. Caso contrário, “você seria muito pressionado a não fazer o experimento”, disse Bell.

O diálogo relatado por Aspect nos permite afirmar que, quase duas décadas depois do artigo seminal de 1964, o tema continuava revestido de preconceito.

Em um experimento feito com pares de fótons emaranhados, a natureza, mais uma vez, mostrou seu caráter não local: a desigualdade de Bell foi violada. Os dados mostraram x > 2. Em 2007, por exemplo, o grupo do físico austríaco Anton Zeilinger verificou a violação da desigualdade usando fótons separados por… 144 km.

Na entrevista no Brasil, Aspect disse que, até então, o teorema era pouquíssimo conhecido pelos físicos, mas ganharia fama depois de sua tese de doutorado, de cuja banca, aliás, Bell participou.


Afinal, por que a natureza permite que haja a “telepatia” einsteiniana? É no mínimo estranho pensar que uma partícula perturbada aqui possa, de algum modo, alterar o estado de sua companheira nos confins do universo.

Há várias maneiras de interpretar as consequências do que Bell fez. De partida, algumas (bem) equivocadas: 1) a não localidade não pode existir, porque viola a relatividade; 2) teorias de variáveis ocultas (Bohm, De Broglie etc.) da mecânica quântica estão totalmente descartadas; 3) a mecânica quântica é realmente indeterminista; 4) o irrealismo -ou seja, coisas só existem quando observadas- é a palavra final. A lista é longa.

Quando o teorema foi publicado, uma leitura rasa (e errônea) dizia que ele não tinha importância, pois o teorema de Von Neumann já havia descartado as variáveis ocultas, e a mecânica quântica seria, portanto, de fato indeterminista. Entre os que não aceitam a não localidade, há ainda aqueles que chegam ao ponto de dizer que Einstein, Bohm e Bell não entenderam o que fizeram.

O filósofo da física norte-americano Tim Maudlin, da Universidade de Nova York, em dois excelentes artigos, “What Bell Did” (O que Bell fez, e “Reply to Werner” (em que responde a comentários sobre o texto anterior,, oferece uma longa lista de equívocos.

Para Maudlin, renomado em sua área, o teorema de Bell e sua violação significam uma só coisa: a natureza é não local (“fantasmagórica”) e, portanto, não há esperança para a localidade, como Einstein gostaria -nesse sentido, pode-se dizer que Bell mostrou que Einstein estava errado. Assim, qualquer teoria determinista (realista) que reproduza os resultados experimentais obtidos até hoje pela mecânica quântica -por sinal, a teoria mais precisa da história da ciência- terá que necessariamente ser não local.

De Aspect até hoje, desenvolvimentos tecnológicos importantes possibilitaram algo impensável há poucas décadas: estudar isoladamente uma entidade quântica (átomo, elétron, fóton etc.). E isso deu início à área de informação quântica, que abrange o estudo da criptografia quântica -aquela que permitirá a segurança absoluta dos dados- e o dos computadores quânticos, máquinas extremamente velozes. De certo modo, trata-se de filosofia transformada em física experimental.

Muitos desses avanços se devem basicamente à rebeldia de uma geração de físicos jovens que queriam contrariar o “sistema”.

Uma história saborosa desse período está em “How the Hippies Saved Physics” (Como os hippies salvaram a física, publicado pela W. W. Norton & Company em 2011), do historiador da física norte-americano David Kaiser. E uma análise histórica detalhada em “Quantum Dissidents: Research on the Foundations of Quantum Theory circa 1970” (Dissidentes do quantum: pesquisa sobre os fundamentos da teoria quântica por volta de 1970,, só para assinantes), do historiador da física Olival Freire Jr., da Universidade Federal da Bahia.

Para os mais interessados no viés filosófico, há os dois volumes premiados de “Conceitos de Física Quântica” (Editora Livraria da Física, 2003), do físico e filósofo Osvaldo Pessoa Jr., da USP.


A esta altura, o(a) leitor(a) talvez esteja se perguntando sobre o que o teorema de Bell tem a ver com uma privacidade 100% garantida.

No futuro, é (bem) provável que a informação seja enviada e recebida na forma de fótons emaranhados. Pesquisas recentes em criptografia quântica garantem que bastaria submeter essas partículas de luz ao teste da desigualdade de Bell. Se ela for violada, então não há nenhuma possibilidade de a mensagem ter sido bisbilhotada indevidamente. E o teste independe do equipamento usado para enviar ou receber os fótons. A base teórica para isso está, por exemplo, em “The Ultimate Physical Limits of Privacy” (Limites físicos extremos da privacidade), de Artur Ekert e Renato Renner (, só para assinantes).

Em um futuro não muito distante, talvez, o teorema de Bell se transforme na arma mais poderosa contra a espionagem. Isso é um tremendo alento para um mundo que parece rumar à privacidade zero. É também um imenso desdobramento de uma pergunta filosófica que, segundo o físico norte-americano Henry Stapp, especialista em fundamentos da mecânica quântica, se tornou “o resultado mais profundo da ciência”. Merecidamente. Afinal, por que a natureza optou pela “ação fantasmagórica a distância”?

A resposta é um mistério. Pena que a pergunta não seja nem sequer mencionada nas graduações de física no Brasil.

CÁSSIO LEITE VIEIRA, 54, jornalista do Instituto Ciência Hoje (RJ), é autor de “Einstein – O Reformulador do Universo” (Odysseus).
JOSÉ PATRÍCIO, 54, artista plástico pernambucano, participa da mostra “Asas a Raízes” na Caixa Cultural do Rio, de 17/1 a 15/3.

Concluído primeiro recenseamento de nuvens do Brasil (Fapesp)

01 de dezembro de 2014

Por Karina Toledo

Agência FAPESP – Para conseguir prever com precisão eventos extremos, como tempestades, ou simular cenários de impactos das mudanças climáticas, é preciso avançar no conhecimento dos processos físicos que ocorrem no interior das nuvens e descobrir a variação de fatores como o tamanho das gotas de chuva, a proporção das camadas de água e de gelo e o funcionamento das descargas elétricas.

Com esse objetivo, uma série de campanhas para coleta de dados foi realizada entre 2010 e 2014 em seis cidades brasileiras – Alcântara (MA), Fortaleza (CE), Belém (PA), São José dos Campos (SP), Santa Maria (RS) e Manaus (AM) – no âmbito de um Projeto Temático FAPESP coordenado por Luiz Augusto Toledo Machado, do Instituto Nacional de Pesquisas Espaciais (Inpe). Essas campanhas contaram com a participação de pesquisadores da Universidade de São Paulo (USP) e de diversas faculdades de Meteorologia no Brasil, que sediaram os experimentos.

Os principais resultados da iniciativa, conhecida como “Projeto Chuva”, foram descritos em um artigo de capa do Bulletin of the American Meteorological Society, revista de grande impacto na área de meteorologia.

Segundo Machado, as regiões escolhidas para a pesquisa de campo representam os diferentes regimes de precipitação existentes no Brasil. “É importante fazer essa caracterização regional para que os modelos matemáticos possam fazer previsões em alta resolução, ou seja, em escala de poucos quilômetros”, disse o pesquisador.

Um conjunto comum de instrumentos – que inclui radares de nuvens de dupla polarização – foi usado nos diferentes sítios de forma que as medidas pudessem ser comparadas e parametrizadas para modelagem.

O radar de dupla polarização, em conjunto com outros instrumentos, envia ondas horizontais e verticais que, por reflexão, indicam o formato dos cristais de gelo e das gotas de chuva, ajudando a elucidar a composição das nuvens e os mecanismos de formação e intensificação das descargas elétricas durante as tempestades. Também foram coletados dados como temperatura, umidade e composição de aerossóis.

Além disso, experimentos adicionais distintos foram realizados em cada uma das seis cidades. No caso de Alcântara, onde a coleta de dados ocorreu em março de 2010, o experimento teve como foco o desenvolvimento de algoritmos de estimativa de precipitação para o satélite internacional Global Precipitation Measurement (GPM) – lançado em fevereiro de 2014 pela Nasa (a agência espacial americana) e pela Agência Japonesa de Exploração Aeroespacial (Jaxa).

“Naquela região, o grande desafio é conseguir estimar a precipitação das chamadas nuvens quentes, que não têm cristais de gelo em seu interior. Elas são comuns na região do semiárido nordestino”, explicou Machado.

Por não abrigarem gelo, a chuva dessas nuvens passa despercebida pelos sensores de micro-ondas que equipam os satélites usados normalmente para medir a precipitação, resultando em dados imprecisos.

As medições de nuvens quentes feitas por radar em Alcântara, comparadas com as medições feitas por satélite, indicaram que os valores de volume de água estavam subestimados em mais de 50%.

Em Fortaleza, onde a coleta foi feita em abril de 2011, foi testado em parceria com a Defesa Civil um sistema de previsão de tempestades em tempo real e de acesso aberto chamado Sistema de Observação de Tempo Severo (SOS Chuva).

“Usamos os dados que estavam sendo coletados pelos radares e os colocamos em tempo real dentro de um sistema de informações geográficas. Dessa forma, é possível fazer previsões para as próximas duas horas. E saber onde chove forte no momento, onde tem relâmpago e como a situação vai se modificar em 20 ou 30 minutos. Também acrescentamos um mapa de alagamento, que permite prever as regiões que podem ficar alagadas caso a água suba um metro, por exemplo”, contou Machado.

A experiência foi tão bem-sucedida, contou o pesquisador, que a equipe decidiu repeti-la nas campanhas realizadas posteriormente. “O SOS Chuva contribui para diminuir a vulnerabilidade da população a eventos extremos do clima, pois oferece informações não apenas para os agentes da Defesa Civil como também para os cidadãos”, disse.

Em junho de 2011 foi realizada a campanha de coleta de dados em Belém, onde os pesquisadores usaram uma rede de instrumentos de GPS para estimar a quantidade de água na atmosfera. Os resultados devem ser publicados em breve. Também foram lançados balões meteorológicos capazes de voar durante 10 horas e coletar dados da atmosfera. “O objetivo era entender o fluxo de vapor d’água que vem do Oceano Atlântico que forma a chuva na Amazônia”, contou Machado.

Entre novembro de 2011 e março de 2012, foi realizada a campanha de São José dos Campos, cujo foco era estudar os relâmpagos e a eletricidade atmosférica. Para isso, foi utilizado um conjunto de redes de detecção de descargas elétricas em parceria com a Agência de Pesquisas Oceânicas e Atmosféricas (NOAA), dos Estados Unidos, e a Agência Europeia de Satélites Meteorológicos (Eumetsat).

“Foram coletados dados para desenvolver os algoritmos dos sensores de descarga elétrica dos satélites geoestacionários de terceira geração, que ainda serão lançados pela NOAA e pela Eumetsat nesta década. Outro objetivo era entender como a nuvem vai se modificando antes que ocorra a primeira descarga elétrica, de forma a prever a ocorrência de raios”, contou Machado.

Em Santa Maria, entre novembro e dezembro de 2012, foram testados, em parceria com pesquisadores argentinos, modelos matemáticos de previsão de eventos extremos. Segundo Machado, a região que abrange o sul do Brasil e o norte da Argentina que ocorrem as tempestades mais severas do mundo.

“Os resultados mostraram que os modelos ainda não são precisos o suficiente para prever com eficácia a ocorrência desses eventos extremos. Em 2017, faremos um novo experimento semelhante, chamado Relâmpago, no norte da Argentina”, contou Machado.


As duas operações intensivas de coleta de dados realizadas em Manaus – a primeira entre fevereiro e março de 2014 e a segunda entre setembro e outubro do mesmo ano – ainda não haviam ocorrido quando o artigo foi submetido à publicação.

A campanha foi feita no âmbito do projeto Green Ocean Amazon e contou com dois aviões voando em diferentes alturas para acompanhar a pluma de poluição emitida pela região metropolitana de Manaus. O objetivo era avaliar a interação entre os poluentes e os compostos emitidos pela floresta, bem como seu impacto nas propriedades de nuvens (leia mais em Os dados ainda estão em fase de análise.

Ao comentar as principais diferenças encontradas nas diversas regiões brasileiras, Machado destaca que as regiões Sul e Sudeste são as que apresentam gotas de chuva de tamanhos maiores e uma camada mista, na qual há água no estado líquido e sólido, mais desenvolvida. Essa é, segundo o pesquisador, a principal razão da maior incidência de descargas elétricas nesses locais.

Já as nuvens da Amazônia apresentam a camada de gelo no topo – acima de 20 quilômetros de altura – mais bem desenvolvida que a de outras regiões. As regiões litorâneas, como Alcântara e Fortaleza, apresentam em maior quantidade as chamadas nuvens quentes, nas quais quase não há descargas elétricas.

“Foi o primeiro recenseamento de nuvens feito no Brasil. Essas informações servirão de base para testar e desenvolver modelos capazes de descrever em detalhes a formação de nuvens, com alta resolução espacial e temporal”, concluiu o pesquisador.

Bioengineering study finds two-cell mouse embryos already ‘talking’ about their future (Science Daily)


November 26, 2014


University of California – San Diego


Bioengineers have discovered that mouse embryos are contemplating their cellular fates in the earliest stages after fertilization when the embryo has only two to four cells, a discovery that could upend the scientific consensus about when embryonic cells begin differentiating into cell types. Their research used single-cell RNA sequencing to look at every gene in the mouse genome.


The research team used single-cell RNA-sequencing to measure every gene in the mouse genome at multiple stages of development to find differences in gene expression at precise stages. Credit: Art by Victor O. Leshyk provided courtesy of bioeningeering professor Sheng Zhong, UC San Diego Jacobs School of Engineering.

Bioengineers at the University of California, San Diego have discovered that mouse embryos are contemplating their cellular fates in the earliest stages after fertilization when the embryo has only two to four cells, a discovery that could upend the scientific consensus about when embryonic cells begin differentiating into cell types. Their research, which used single-cell RNA sequencing to look at every gene in the mouse genome, was published recently in the journal Genome Research. In addition, this group published a paper on analysis of “time-course”single-cell data which is taken at precise stages of embryonic development in the journal of Proceedings of the National Academy of Sciences.

“Until recently, we haven’t had the technology to look at cells this closely,” said Sheng Zhong, a bioengineering professor at UC San Diego Jacobs School of Engineering, who led the research. “Using single-cell RNA-sequencing, we were able to measure every gene in the mouse genome at multiple stages of development to find differences in gene expression at precise stages.”

The findings reveal cellular activity that could provide insight into where normal developmental processes break down, leading to early miscarriages and birth defects.

The researchers discovered that a handful of genes are clearly signaling to each other at the two-cell and four-cell stage, which happens within days after an egg has been fertilized by sperm and before the embryo has implanted into the uterus. Among the identified genes are several genes belonging to the WNT signaling pathway, well-known for their role in cell-cell communications.

The prevailing view until now has been that mammalian embryos start differentiating into cell types after they have proliferated into large enough numbers to form subgroups. According to the co-authors Fernando Biase and Xiaoyi Cao, when the first cell fate decision is made is an open question. The first major task for an embryo is to decide which cells will begin forming the fetus, and which will form the placenta.

The research was funded by the National Institutes of Health (DP2OD007417) and the March of Dimes Foundation.

Zhong’s research in the field of systems or network biology applies engineering principals to understand how biological systems function. For example, they developed analytical methods to predict personal phenotypes, which refer to the physical description of an individual ranging from eye and hair color to health and disposition, using an individual’s personal genome and epigenome. Epigenome refers to the chemical compounds in DNA that regulate gene expression and vary from person to person. Predicting phenotypes with genome and epigenome is an emerging area of research in the field of personalized medicine that scientists believe could provide new ways to predict and treat genetic disorders.

Story Source:

The above story is based on materials provided by University of California – San Diego. Note: Materials may be edited for content and length.

Journal References:

  1. F. H. Biase, X. Cao, S. Zhong. Cell fate inclination within 2-cell and 4-cell mouse embryos revealed by single-cell RNA sequencing. Genome Research, 2014; 24 (11): 1787 DOI: 10.1101/gr.177725.114
  2. W. Huang, X. Cao, F. H. Biase, P. Yu, S. Zhong. Time-variant clustering model for understanding cell fate decisions. Proceedings of the National Academy of Sciences, 2014; 111 (44): E4797 DOI: 10.1073/pnas.1407388111

‘Dressed’ laser aimed at clouds may be key to inducing rain, lightning (Science Daily)

Date: April 18, 2014

Source: University of Central Florida

Summary: The adage “Everyone complains about the weather but nobody does anything about it” may one day be obsolete if researchers further develop a new technique to aim a high-energy laser beam into clouds to make it rain or trigger lightning. Other possible uses of this technique could be used in long-distance sensors and spectrometers to identify chemical makeup.

The adage “Everyone complains about the weather but nobody does anything about it,” may one day be obsolete if researchers at the University of Central Florida’s College of Optics & Photonics and the University of Arizona further develop a new technique to aim a high-energy laser beam into clouds to make it rain or trigger lightning. Credit: © Maksim Shebeko / Fotolia

The adage “Everyone complains about the weather but nobody does anything about it” may one day be obsolete if researchers at the University of Central Florida’s College of Optics & Photonics and the University of Arizona further develop a new technique to aim a high-energy laser beam into clouds to make it rain or trigger lightning.

The solution? Surround the beam with a second beam to act as an energy reservoir, sustaining the central beam to greater distances than previously possible. The secondary “dress” beam refuels and helps prevent the dissipation of the high-intensity primary beam, which on its own would break down quickly. A report on the project, “Externally refueled optical filaments,” was recently published in Nature Photonics.

Water condensation and lightning activity in clouds are linked to large amounts of static charged particles. Stimulating those particles with the right kind of laser holds the key to possibly one day summoning a shower when and where it is needed.

Lasers can already travel great distances but “when a laser beam becomes intense enough, it behaves differently than usual — it collapses inward on itself,” said Matthew Mills, a graduate student in the Center for Research and Education in Optics and Lasers (CREOL). “The collapse becomes so intense that electrons in the air’s oxygen and nitrogen are ripped off creating plasma — basically a soup of electrons.”

At that point, the plasma immediately tries to spread the beam back out, causing a struggle between the spreading and collapsing of an ultra-short laser pulse. This struggle is called filamentation, and creates a filament or “light string” that only propagates for a while until the properties of air make the beam disperse.

“Because a filament creates excited electrons in its wake as it moves, it artificially seeds the conditions necessary for rain and lightning to occur,” Mills said. Other researchers have caused “electrical events” in clouds, but not lightning strikes.

But how do you get close enough to direct the beam into the cloud without being blasted to smithereens by lightning?

“What would be nice is to have a sneaky way which allows us to produce an arbitrary long ‘filament extension cable.’ It turns out that if you wrap a large, low intensity, doughnut-like ‘dress’ beam around the filament and slowly move it inward, you can provide this arbitrary extension,” Mills said. “Since we have control over the length of a filament with our method, one could seed the conditions needed for a rainstorm from afar. Ultimately, you could artificially control the rain and lightning over a large expanse with such ideas.”

So far, Mills and fellow graduate student Ali Miri have been able to extend the pulse from 10 inches to about 7 feet. And they’re working to extend the filament even farther.

“This work could ultimately lead to ultra-long optically induced filaments or plasma channels that are otherwise impossible to establish under normal conditions,” said professor Demetrios Christodoulides, who is working with the graduate students on the project.

“In principle such dressed filaments could propagate for more than 50 meters or so, thus enabling a number of applications. This family of optical filaments may one day be used to selectively guide microwave signals along very long plasma channels, perhaps for hundreds of meters.”

Other possible uses of this technique could be used in long-distance sensors and spectrometers to identify chemical makeup. Development of the technology was supported by a $7.5 million grant from the Department of Defense.

Journal Reference:

  1. Maik Scheller, Matthew S. Mills, Mohammad-Ali Miri, Weibo Cheng, Jerome V. Moloney, Miroslav Kolesik, Pavel Polynkin, Demetrios N. Christodoulides.Externally refuelled optical filamentsNature Photonics, 2014; 8 (4): 297 DOI:10.1038/nphoton.2014.47

Why Animals Compare the Present With the Past (Science Daily)

May 30, 2013 — Humans, like other animals, compare things. We care not only how well off we are, but whether we are better or worse off than others around us, or than we were last year. New research by scientists at the University of Bristol shows that such comparisons can give individuals an evolutionary advantage.

The ‘contrast effect’ has been reported in a number of living things, including bees. (Credit: © Daniel Prudek / Fotolia)

According to standard theory, the best response to current circumstances should be unaffected by what has happened in the past. But the Bristol study, published in the journalScience, shows that in a changing, unpredictable world it is important to be sensitive to past conditions.

The research team, led by Professor John McNamara in Bristol’s School of Mathematics, built a mathematical model to understand how animals should behave when they are uncertain about the pattern of environmental change. They found that when animals are used to rich conditions but then conditions suddenly worsen, they should work less hard than animals exposed to poor conditions all along.

The predictions from the model closely match findings from classic laboratory experiments in the 1940s, in which rats were trained to run along a passage to gain food rewards. The rats ran more slowly for small amounts of food if they were used to getting large amounts of food, compared to control rats that were always rewarded with the smaller amount.

This so-called ‘contrast effect’ has also been reported in bees, starlings and a variety of mammals including newborn children, but until now it lacked a convincing explanation.

Dr Tim Fawcett, a research fellow in Bristol’s School of Biological Sciences and a co-author on the study, said: “The effects in our model are driven by uncertainty. In changing environments, conditions experienced in the past can be a valuable indicator of how things will be in the future.”

This, in turn, affects how animals should respond to their current situation. “An animal that is used to rich conditions thinks that the world is generally a good place,” Dr Fawcett explained. “So when conditions suddenly turn bad, it interprets this as a temporary ‘blip’ and hunkers down, expecting that rich conditions will return soon. In contrast, an animal used to poor conditions expects those conditions to persist, and so cannot afford to rest.”

The model also predicts the reverse effect, in which animals work harder for food when conditions suddenly improve, compared to animals experiencing rich conditions all along. This too has been found in laboratory experiments on a range of animals.

The Bristol study highlights unpredictable environmental fluctuations as an important evolutionary force. “Rapid changes favour individuals that are responsive and able to adjust their behaviour in the light of past experience,” said Dr Fawcett. “The natural world is a dynamic and unpredictable place, but evolutionary models often neglect this. Our work suggests that models of more complex environments are important for understanding behaviour.”

Journal Reference:

  1. J. M. McNamara, T. W. Fawcett, A. I. Houston. An Adaptive Response to Uncertainty Generates Positive and Negative Contrast EffectsScience, 2013; 340 (6136): 1084 DOI: 10.1126/science.1230599

Maya Long Count Calendar Calibrated to Modern European Calendar Using Carbon-14 Dating (Science Daily)

Apr. 11, 2013 — The Maya are famous for their complex, intertwined calendric systems, and now one calendar, the Maya Long Count, is empirically calibrated to the modern European calendar, according to an international team of researchers.

Elaborately carved wooden lintel or ceiling from a temple in the ancient Maya city of Tikal, Guatemala, that carries a carving and dedication date in the Maya calendar. (Credit: Courtesy of the Museum der Kulturen)

“The Long Count calendar fell into disuse before European contact in the Maya area,” said Douglas J. Kennett, professor of environmental archaeology, Penn State.

“Methods of tying the Long Count to the modern European calendar used known historical and astronomical events, but when looking at how climate affects the rise and fall of the Maya, I began to question how accurately the two calendars correlated using those methods.”

The researchers found that the new measurements mirrored the most popular method in use, the Goodman-Martinez-Thompson (GMT) correlation, initially put forth by Joseph Goodman in 1905 and subsequently modified by others. In the 1950s scientists tested this correlation using early radiocarbon dating, but the large error range left open the validity of GMT.

“With only a few dissenting voices, the GMT correlation is widely accepted and used, but it must remain provisional without some form of independent corroboration,” the researchers report in today’s (April 11) issue of Scientific Reports.

A combination of high-resolution accelerator mass spectrometry carbon-14 dates and a calibration using tree growth rates showed the GMT correlation is correct.

The Long Count counts days from a mythological starting point. The date is composed of five components that combine a multiplier times 144,000 days — Bak’tun, 7,200 days — K’atun, 360 days — Tun, 20 days — Winal, and 1 day — K’in separated, in standard notation, by dots.

Archaeologists want to place the Long Count dates into the European calendar so there is an understanding of when things happened in the Maya world relative to historic events elsewhere. Correlation also allows the rich historical record of the Maya to be compared with other sources of environmental, climate and archaeological data calibrated using the European calendar.

The samples came from an elaborately carved wooden lintel or ceiling from a temple in the ancient Maya city of Tikal, Guatemala, that carries a carving and dedication date in the Maya calendar. This same lintel was one of three analyzed in the previous carbon-14 study.

Researchers measured tree growth by tracking annual changes in calcium uptake by the trees, which is greater during the rainy season.

The amount of carbon-14 in the atmosphere is incorporated into a tree’s incremental growth. Atmospheric carbon-14 changes through time, and during the Classic Maya period oscillated up and down.

The researchers took four samples from the lintel and used annually fluctuating calcium concentrations evident in the incremental growth of the tree to determine the true time distance between each by counting the number of elapsed rainy seasons. The researchers used this information to fit the four radiocarbon dates to the wiggles in the calibration curve. Wiggle-matching the carbon-14 dates provided a more accurate age for linking the Maya and Long Count dates to the European calendars.

These calculations were further complicated by known differences in the atmospheric radiocarbon content between northern and southern hemisphere.

“The complication is that radiocarbon concentrations differ between the southern and northern hemisphere,” said Kennett. “The Maya area lies on the boundary, and the atmosphere is a mixture of the southern and northern hemispheres that changes seasonally. We had to factor that into the analysis.”

The researchers results mirror the GMT European date correlations indicating that the GMT was on the right track for linking the Long Count and European calendars.

Events recorded in various Maya locations “can now be harmonized with greater assurance to other environmental, climatic and archaeological datasets from this and adjacent regions and suggest that climate change played an important role in the development and demise of this complex civilization,” the researchers wrote.

Journal Reference:

  1. Douglas J. Kennett, Irka Hajdas, Brendan J. Culleton, Soumaya Belmecheri, Simon Martin, Hector Neff, Jaime Awe, Heather V. Graham, Katherine H. Freeman, Lee Newsom, David L. Lentz, Flavio S. Anselmetti, Mark Robinson, Norbert Marwan, John Southon, David A. Hodell, Gerald H. Haug. Correlating the Ancient Maya and Modern European Calendars with High-Precision AMS 14C DatingScientific Reports, 2013; 3 DOI:10.1038/srep01597

When Do We Lie? When We’re Short On Time and Long On Reasons (Science Daily)

ScienceDaily (Sep. 5, 2012) — Almost all of us have been tempted to lie at some point, whether about our GPA, our annual income, or our age. But what makes us actually do it?

In a study forthcoming inPsychological Science, a journal of the Association for Psychological Science, psychological scientists Shaul Shalvi of the University of Amsterdam and Ori Eldar and Yoella Bereby-Meyer of Ben-Gurion University of the Negev investigated what factors influence dishonest behavior.

Previous research shows that a person’s first instinct is to serve his or her own self-interest. And research also shows that people are more likely to lie when they can justify such lies to themselves. With these findings in mind, Shalvi and colleagues hypothesized that, when under time pressure, having to make a decision that could yield financial reward would make people more likely to lie. They also hypothesized that, when people are not under time pressure, they are unlikely to lie if there is no opportunity to rationalize their behavior.

“According to our theory, people first act upon their self-serving instincts, and only with time do they consider what socially acceptable behavior is,” says Shalvi. “When people act quickly, they may attempt to do all they can to secure a profit — including bending ethical rules and lying. Having more time to deliberate leads people to restrict the amount of lying and refrain from cheating.”

The researchers first tested participants’ tendency to lie when doing so could be easily justified: Approximately 70 adult participants rolled a die three times such that the result was hidden from the experimenter’s view. The participants were told to report the first roll, and they earned more money for a higher reported roll.

Seeing the outcomes of the second and third rolls provided the participants with the opportunity to justify reporting the highest number that they rolled, even if it was not the first — after all, they had rolled that number, just not the first time they rolled the die. Some of the participants were under time pressure, and were instructed to report their answer within 20 seconds. The others were not under time pressure, and had an unlimited amount of time to provide a response.

The experimenters were not able to see the actual die rolls of the participants, to ensure all rolls were private. Instead, in order to determine whether or not the participants had lied about the numbers they rolled, Shalvi and colleagues compared their responses to those that would be expected from fair rolls. They found that both groups of participants lied, but those who were given less time to report their numbers were more likely to lie than those who weren’t under a time constraint.

The second experiment followed a similar procedure, except that the participants were not given information that could help them justify their lies: instead of rolling their die three times, they only rolled it once and then reported the outcome. In this experiment, the researchers found that participants who were under time pressure lied, while those without a time constraint did not.

Together, the two experiments suggest that, in general, people are more likely to lie when time is short. When time isn’t a concern, people may only lie when they have justifications for doing so.

One implication of the current findings is that to increase the likelihood of honest behavior in business or personal settings, it is important not push a person into a corner but rather to give him or her time,” explains Shalvi. “People usually know it is wrong to lie, they just need time to do the right thing.”