Todos os posts de renzotaddei

Avatar de Desconhecido

Sobre renzotaddei

Anthropologist, professor at the Federal University of São Paulo

Climate Change causing Shrinkage in Appalachia‘s Salamanders (Austrian Tribune)

Submitted by Annika Linser on Wed, 03/26/2014 – 08:18

Climate change is not the only bane of human beings but is troubling salamanders too. A new report, published in Global Change Biology, revealed that climate change is causing salamanders in Appalachia to shrink as the amphibians are forced to burn more energy to ensure their survival.

The report said salamanders caught in the Appalachian Mountains since 1980 have become on average 8% smaller than museum specimens caught before then.

Due to increase in temperature, salamanders have to expend more energy and it is not a hidden fact that expending more energy makes every species smaller. The rate at which the salamander has shrunk is the largest and the fastest ever recorded in any animal, said University of Maryland professor Karen Lips.

First warnings over the same were reported by David Bickford of the National University of Singapore in a paper published in Nature Climate Change in 2011. He wrote, “The observed and expected patterns of decreased body size are widespread across different taxa, and are likely to be reported from an increasingly wide array of taxa over the coming century”.

He named at least 30 mammals, birds, frogs, and plants that suffered shrinkage because of climate change, whereas another 9 species showed some growth because of the phenomenon.

Lips said that is it not made certain yet that why and how it is happening, but their data clearly shows that it is correlated with climate change. Whatever the reason is, the timing is certainly not good as salamanders and other amphibians are already in distress, with some species reaching extinction and others experiencing huge decline in numbers.

Lips and her colleagues found six salamander species shrunk significantly and only one got slightly larger between 1957 and 2012. On an average, each generation of salamander was 1% smaller than its parent’s generation.

OMS: Poluição do ar mata cerca de 7 milhões de pessoas por ano (Rádio ONU)

Saúde
27/3/2014 – 11h25

por Leda Letra, da Rádio ONU

traffic cars pollution 300x257 OMS: Poluição do ar mata cerca de 7 milhões de pessoas por ano

Dados apresentados esta terça-feira, 25, confirmam que má qualidade do ar é líder ambiental em riscos para a saúde; doenças do coração, derrames e obstrução crônica do pulmão são as principais consequências da poluição.

A Organização Mundial da Saúde calcula que uma a cada oito mortes no mundo é causada pela exposição ao ar poluído. A nova estatística da agência da ONU foi apresentada esta terça-feira em Genebra.

Em 2012, cerca de 7 milhões de pessoas morreram devido à poluição do ar, duas vezes mais do que as estimativas anteriores. Segundo a OMS, esta é a principal causa ambiental de riscos à saúde.

Detalhes

A pesquisa revela uma forte ligação entre a poluição do ar e doenças respiratórias, do coração, derrames e câncer. A nova estimativa é baseada em um melhor conhecimento sobre a exposição humana ao ar e tecnologias mais avançadas para medir esses dados, incluindo o uso de satélites.

De acordo com a OMS, os cientistas conseguiram fazer uma análise detalhada dos riscos à saúde a partir de uma distribuição demográfica mais ampla, incluindo áreas rurais e urbanas.

Carvão

A agência calcula que a poluição do ar em ambientes fechados foi relacionada a mais de 4,3 milhões de mortes. Os casos estavam ligados ao uso de fogões de biomassa, carvão e madeira para cozinhar.

No caso da poluição em áreas abertas, o levantamento da OMS fala em 3,7 milhões de mortes em áreas rurais e urbanas.

Como a maioria das pessoas está exposta ao ar poluído em locais internos e abertos, as taxas de mortalidade não podem ser somadas e por isso, a OMS chegou à média de 7 milhões de mortes em 2012.

Coração e Pulmão

Os países do sudeste asiático e do Pacífico tiveram os maiores números de mortes relacionadas à poluição do ar, com quase 6 milhões de casos.

Em todo o mundo, 40% das pessoas que morreram pela poluição do ar em ambientes abertos sofreram doenças do coração; outros 40% tiveram derrame. Entre as outras causas de mortes, estão doença pulmonar obstrutiva crônica, câncer de pulmão e infecção respiratória aguda em crianças.

Transportes

Já os pacientes que morreram como consequência da poluição do ar em ambientes fechados tiveram principalmente derrame (34%), doenças do coração (26%), e do pulmão (22%).

Segundo a diretora do Departamento de Saúde Pública da OMS, Maria Neira, os riscos do ar poluído são bem maiores do que o previsto, em especial nos casos de doenças do coração e derrames. Para Neira, a evidência mostra a necessidade de ação combinada para a limpeza do ar que respiramos.

A OMS lembra que a poluição excessiva do ar geralmente está ligada a políticas insustentáveis nos setores de transportes, energia, gestão de resíduos e indústrias.

* Publicado originalmente no site Rádio ONU e retirado do site CarbonoBrasil.

Réguas do clima no campo (Fapesp)

Estações meteorológicas de São Paulo com séries históricas mais longas surgiram em Campinas e Piracicaba

NELDSON MARCOLIN | Edição 217 – Março de 2014

Livros de registros da estação da Esalq de 1917

A coleta sistemática de dados climáticos no Brasil começou a ser feita na primeira metade do século XIX no Imperial Observatório do Rio de Janeiro, atual Observatório Nacional. Em São Paulo, o Instituto Agronômico de Campinas (IAC) instalou sua primeira estação meteorológica em 1890, no interior paulista, com um objetivo mais específico do que conhecer o comportamento do tempo: realizar pesquisas sobre a influência do clima nas culturas agrícolas. “Os técnicos observadores anotavam cinco vezes por dia, em folhas de um metro de largura, informações sobre temperatura, umidade do ar, radiação solar e nebulosidade”, diz Orivaldo Brunini, coordenador do Centro Integrado de Informações Agrometeorológicas do IAC, órgão ligado à Secretaria Estadual de Agricultura e Abastecimento.

A estação mecânica pioneira começou a funcionar três anos depois da fundação do IAC. Três técnicos se revezavam na leitura dos dados durante todos os dias, sem exceção. “Os equipamentos, os mais modernos da época, vieram da Alemanha”, diz Brunini. Os dados eram analisados posteriormente pelos engenheiros agrônomos, mas as informações demoravam a chegar aos agricultores. Com o tempo, outras cidades do interior ganharam suas estações. Em 1956, o instituto começou a fazer anuários meteorológicos agronômicos e, em seguida, boletins mensais. Hoje há 150 estações que funcionam com sensores automáticos, que não dependem de observadores e fornecem informações em tempo real via internet. O IAC recebe 120 mil consultas por mês – 4 mil por dia. Os dados são usados para orientar os agricultores e também a Defesa Civil contra enchentes ou incêndios.

“O material histórico acumulado fornece séries que ajudam na análise de mudanças climáticas e é parte da história da região por guardar o registro de grandes estiagens ou geadas, por exemplo”, diz Brunini. Segundo ele,
há registro de apenas duas interrupções do serviço. Elas ocorreram durante a Revolução de 1932, quando as tropas paulistas estacionaram na fazenda do IAC, em julho, onde ficava a estação, e quando as forças federais estiveram no mesmo local, em outubro.

Estação da Esalq nos anos 1930

Em 1917 iniciaram-se as observações que originaram a segunda série mais antiga de São Paulo na estação instalada na então Escola Agrícola Prática de Piracicaba, hoje Escola Superior de Agricultura Luiz de Queiroz (Esalq) da Universidade de São Paulo (USP). “As leituras eram realizadas quatro vezes por dia e uma delas seguia por telégrafo para a Diretoria de Meteorologia e Astronomia do Observatório Nacional, hoje Instituto Nacional de Meteorologia, o Inmet, para compor as informações meteorológicas diárias e de previsão de tempo de todo o país”, conta Luiz Roberto Angelocci, professor sênior do Departamento de Engenharia de Biossistemas da Esalq. A partir da década de 1960, os estudos se tornaram mais específicos para análise das relações clima-agricultura e, desde o final de 1996, foi instalada a coleta automatizada de dados, sem desativação da coleta convencional. Os dados estão disponíveis na internet.

Angelocci trabalha na análise das séries históricas geradas nos 97 anos de registro. “O que se pretende é uma reanálise completa da série, além de uma melhor exploração dos dados”, diz ele. Séries longas são fundamentais para o entendimento do clima e das causas de sua variabilidade. São importantes, também, para mostrar o que pode ser meramente uma anomalia climática ou uma tendência. “Aliás, certas anomalias não são tão raras como parecem. A situação atual de período seco no estado de São Paulo, por exemplo, ocorreu de forma análoga em outros anos”, conta Angelocci. Ele observou que em cinco anos da série, o primeiro deles em 1935, a chuva ficou abaixo de 40% da média de toda a série para o mês de janeiro. “Não dá para ser categórico e afirmar que a seca atual é resultado ou não de mudanças climáticas recentes quando sabemos que nos últimos 97 anos ocorreram períodos semelhantes ao atual”, conclui o pesquisador.

Stengers on emergence (BioSocieties)

BioSocieties (2014) 9, 99–104. doi:10.1057/biosoc.2013.43

Isabelle Stengers. Cosmopolitics. Minneapolis, London: University of Minnesota Press, 299 pp., US$25, £18.50, ISBN: 9780816656868; 9780816656875

Reviewed by Graham Harman

American University, Cairo, Egypt. E-mail: gharman@aucegypt.edu

Cosmopolitics, the major work of Belgian philosopher Isabelle Stengers, has been available in English since 2011 in a lucid two-volume translation by Robert Bononno. In the Anglophone world Stengers is already known as a formidable interpreter of Alfred North Whitehead, a thinker she has done so much to disseminate in the French-speaking world (Stengers, 2011). But in the present work we encounter Stengers’ own philosophical voice even more directly. Originally published in the 1990’s in seven slim French volumes, Cosmopolitics should be regarded as one of the most unique works of continental philosophy in the past several decades.

For many years, continental philosophy was attacked for its focus on purely literary and social science texts, far from the stunningly successful labors of the natural sciences. Cosmopolitics is one of several prominent recent works that have begun to reverse this trend. Karen Barad’s Meeting the Universe Halfway also comes to mind (Barad, 2007), as does Manuel DeLanda’s Intensive Science and Virtual Philosophy(DeLanda, 2002), along with several books on neuroplasticity by Cathérine Malabou (2008) All of these works have had considerable influence, and they may look in retrospect like a collective turning point. Yet Cosmopolitics differs from the others in at least two respects. First, Stengers gives us a long historical narrative filled with a roster of heroes barely familiar to her philosophy readership: Lagrange, Carnot, Hamilton, Duhem, Poincaré, and de Donder among them. Second, Stengers writes as someone personally invested in this history, since she worked as a close associate of Ilya Prigogine, the celebrated Russian-born Belgian chemist. Despite receiving a Nobel Prize in 1977, Prigogine ended his career as a somewhat marginalized figure, accused of ‘delusions of grandeur’ for reasons described in haunting fashion by Stengers herself.1

What will become of Stengers’ detailed history of dynamics among her philosophically minded readers? Gilles Deleuze launched an unexpected fashion for the Stoics and Duns Scotus, to name just two of his ‘minor’ favorites. Alain Badiou has spurred a generation of young readers to learn set theory and idolize the madman-genius Cantor. Will Stengers’ Cosmopolitics provoke a comparable wave of enthusiasm for the history of dynamics? Or will it remain an intriguing dark horse of a book, left by the wayside as different paths are followed? As Stengers demonstrates in her approach to the history of physics, there is no way to predict which human works will become events that produce a tangible line of heirs. Just as Prigogine’s scientific breakthrough in 1972 could have rewritten the history of physics,2 Stengers’ lengthy treatise could lead to a new style of continental philosophy: steeped in Deleuze and Whitehead, while closely tracking the shift from Lagrangians to Hamiltonians to Niels Bohr’s model of the atom. While this may sound unlikely in view of the meager past relations between science and continental philosophy, who would have expected Cantor to become a favorite of young French philosophers? It is at least conceivable that Stengers has opened a door that other talented thinkers will enter, and this gives Cosmopolitics the refreshing air of a possible future, no matter what eventually becomes of the book.

What must now be asked is whether the elegance and historical thoroughness of Cosmopolitics go hand-in-hand with a compelling philosophical position. In her remarkably calm and even-tempered book, Stengers nonetheless shows considerable impatience with philosophers of the old style, who brandish their arrogant certainties about how the world really is. She argues instead for what she calls an “ecology of practices.” Yet this ecological program turns out to be an ontology in its own right, as open to counter-argument as any other. To zero in on Stengers’ ontology, I will focus on her concept of emergence. This is both a central philosophical theme of Cosmpolitics and a topic where she differentiates her views equally from the ‘reductionists’ and the ‘holists,’ who are presented as sharing the same basic flaw. Though it may seem difficult to extract isolated themes from such a densely interwoven work, the brief format of the present review requires that we make the attempt. Ignoring for now her critique of the notion of physical ‘states,’ and her important passing salute to Gilbert Simondon’s dismissal of fully formed individuals, we can find the core of Stengers’ concept of emergence in Chapters 13 and 14 of Cosmopolitics II. These chapters are entitled ‘The Question of Emergence’ and “The Practices of Emergence,”3 and together total just under thirty pages.

Before considering Stengers’ own views, we should place the question of emergence in philosophical context. How does something new emerge irreversibly from the old? This was a central concern of Henri Bergson a century ago, and Francophone thought since the 1960’s has often been nearly obsessed with the question of the new.4 Beyond this theme of the new arising from the old, emergence can also be framed as the question of how the large emerges from the small or the more composite from the more simple. If this never happens, if mid-sized entities are always mere aggregates of tinier authentic things, then we are left with a reductionist or even eliminativist approach to the world in which a privileged ultimate layer is treated as the sole authentic reality. Thinking would thereby become a permanent exercise isundermining: debunking illusory macroscopic beings in favor of underlying subcomponents or perhaps even a barely articulate, gelatinous mass (See Harman, 2011). Particle physics would become the chosen discipline of the gods; all others would have to accept a subordinate local status, ruled by the ultimate primacy of physics.5

Yet we must also beware of a kind of reduction that moves upwards rather than downwards – namely, the kind that I have called overmining. Instead of dissolving a thing into its constituents, we might dissolve it upward into appearances, effects, manifestations, or events, while mocking the ‘naïve realism’ that posits discrete individuals hiding behind their tangible manifestations. Or we might play the double game of doing both at once, duomining the world by appealing sometimes to ultimate particles or indeterminate flux as the bedrock of reality, and other times to an uppermost layer of the visible, the evental, or the determinate that float without a bedrock.6 What is lost through this two-faced process is the middle kingdom: the robust reality of specific things that are more than the inner relations of their parts, but less than their outer relations with their environment. Object-oriented philosophy insists on the rights of the middle kingdom, with objects protected from reduction in two directions rather than just one. From an object-oriented standpoint, how does Stengers look when it comes to the question of emergence? Is she an underminer, an overminer, a duominer, or an ally? Or does she somehow escape all of these categories, which through her act of escape would be exposed as artificial or at least non-exhaustive? Whatever the answer, this will not be an exercise in name-calling or empty labelling. Each of the terms just mentioned (undermining, overmining, duomining, object-oriented) has a precise meaning and definite philosophical consequences.

Stengers is aware that the problem of emergence has ancient metaphysical roots: “Aristotle’s disciples were already arguing about composite bodies endowed with new qualities that arose from the elements that composed them. How could these new qualitative properties be explained?” (p. 208) The standard reductive approach is exemplified by today’s most zealous materialists, who “signal a future in which, from psychology to the social sciences and therapeutic practices, all forms of knowledge concerning human behavior will be understood in terms of neuronal interactions.” (p. 209) Such materialists, of course, do not even treat neurons as the fundamental basis of the world, since they too can be explained through the workings of even tinier constituents. Neurons for them are simply a convenient, provisional, local supply base for reductive explanations of the human realm. Undermining is treated as the very business of thought, the sole legitimate method for assaulting all that is supposedly mysterious.

All resistance to such undermining must hold that something new emerges at levels higher than the physically ultimate. This approach need not come from outside the sciences. Stengers notes that the anti-mechanistic chemists of the eighteenth century “claimed there was a difference between composition, which was their problem, and the simple aggregation of physicists” (p. 209). The quarrel between reduction and anti-reduction thus became a disciplinary dispute between physicists and chemists. Here the chemists are joined by Leibniz, one of Aristotle’s greatest heirs, who “pointed out the foolishness of those who dreamed of explaining sensation, perception, and consciousness in terms of inert matter,” and in doing so “he seems to have been taking part in a quarrel that continues today with the unfortunately celebrated mind-body problem.” (p. 208) Of course, there are several different intellectual camps that might view the celebration of the mind-body problem as ‘unfortunate.’ One of these camps is that of the hardcore materialists mentioned in the previous paragraph. For them there is no mind-body problem simply because body is destined to win; mind will eventually cave in to advancing physical explanations of the brain. For a hardcore idealist such as Berkeley, by contrast, there can be no mind-body problem because mind has already won; to be is to be perceived, and there is no autonomous ‘body’ outside the configurations it displays for some human or divine mind. Against these two options, seekers in the realm of the mind-body problem at least mark a place of uncertainty, a temporary bastion against quick reductions in either direction. Given that Stengers views this bastion as ‘unfortunate’ (as I do, but for very different reasons) we will need to see how she hopes to outflank all three positions simultaneously.

A point of especial interest in Stengers’ story is the changing status of clocks, one of the most useful and earliest-perfected machines of the modern era. “The clock is a weapon against Aristotelian thought, for which matter is unintelligible as such but requires a form, with which are associated both the existence of individual beings, each of which is endowed with its own end, and the possibility of knowing them.” (p. 210) However, “in the case of the clock, matter and finality can be understood separately: consisting of inert parts, and as such subject to the laws of mechanics, it owes its clocklike existence to the genius of the maker, who has subjected those parts to their own ends, who has incorporated them into a coherent mechanism defined by a finality – telling time.” (p. 210) The question of emergence is thereby conflated with the question of purpose or final causation: “The question of finality designates the stronghold that must be defended or conquered.” (p. 210) This appeal to finality proves to be a bad move for the anti-mechanists, since Darwinian natural selection allows Richard Dawkins to replace the purposeful timekeeper with the “blind watchmaker” whose living creatures have no internal finality, but simply survive or fail to survive in the environment they happen to confront. (p. 210) By the same token, it allows Jacques Monod to dismiss final causes and say that living creatures are merely “teleonomic,” meaning that we can describe them on the basis of their aim of self-reproduction, but without metaphysical commitment to an actual finality inherent in these beings themselves. (p. 210)

And here we encounter Stengers’ impatience with both the reductionist and vitalist sides of the dispute. Locked in mutual polemic, each adopts self-defeating strategies that open up vulnerable paths to their mortal enemy. “What I want to emphasize here is that understanding the challenge to which the living being exposes the biologist is barred to the vitalist biologist just as it is to the believer in neo-Darwinism. In both cases, the polemical position is expressed by the production of an identity that is substituted for practical requirements and obligations the way a solution is substituted for a problem.” (p. 211) In other words, the neo-Darwinist defends inert mechanical matter and the vitalist defends non-mechanistic purposes, but these are both ‘identities’ that ought to give way to ‘practical requirements and obligations.’ This is the pragmatist gist of Stengers’ call for an “ecology of practices”: disputes over the nature of reality are pointless polemics that ought to be re-inscribed in the practical soil that enables the two opposite positions in the first place. We are led not to an ambiguous real world in which everything is both mechanistic and purposive, but to an ultimate human practical context in which things are neither mechanistic nor purposive, apart from the ‘requirements and obligations’ following from how the problem is posed at any given time.

Stengers cites the cases of Pasteur demonstrating the autonomy of the microorganism, Körner displaying the hexagonal structure of benzene, and Nirenberg using an artificial DNA molecule to synthesize a protein. (p. 213) Stengers’ ontological conclusions about these events might be called ‘deflationary,’ since they neither add real autonomous microorganisms, benzene molecules, and proteins to the world, nor do they shatter these things reductively into tinier components. As she puts it, “events of this kind mark the creation of new laboratory beings and the new laboratories that correspond to them. But they do not pose the problem of emergence and do not allow any reduction to occur. They mark the success of an operation of delegation.” (p. 213) The understated tone of the passage cannot mask its radical philosophical claim. For it is not just that Pasteur, Körner, and Nirnberg happened not to brush against the philosophical question of reduction and emergence. Instead, for Stengers, reduction and emergence are not legitimate philosophical problems at all. They are pseudo-problems that ought to be replaced by the true problem of how successful and unsuccessful ‘delegations’ are made. Instead of disputing over the criteria for what would or would not count as an ‘emergent’ being immune to mechanistic reduction, “it is much more interesting to point out how the operations of experimental delegation that have treated bacteria as targets or actors have been possible.” (p. 213) Is Stengers’ theory of delegation simply ‘much more interesting’ than ontological disputes over emergence, or are there more convincing grounds for dissolving those disputes into her own pragmatic theory? I for one do not share her lack of ‘interest’ in emergence, nor can I accept the concluding lesson of her Section 13: “all the confrontations that serve as ecology in the modern sciences converge around the question of emergence. Therefore, it is from this field of battle that we must escape… a practical, constructivist sense must be given to the issues covered by [the term ‘emergence’].” (p. 218; emphasis added)

We can now move to Stengers’ attempted coup de grâce in Section 14. “It is not often,” she reports, “that I have the opportunity to speak well of the work of philosophers of science.” (p. 219) Yet she now sees opportunity for praise when referring to the three-tiered model of emergence proclaimed by J.K. Feibleman. Though he starts with “a conventional definition of emergence, which associates the relation between a whole and its parts to the relation between ends and means,” (p. 219) he seems to add an extra layer to the problem. In Feibleman’s own words: “For an organization at any given level, its mechanism lies at the level below, and its purpose at the level above. This law states that for the analysis of any organization three levels are required: its own, the one below, and the one above.”7 For Stengers, the value of this model lies in its implication that “the purpose of an organization is not found in itself but is always seen from the point of view of something else.” (p. 219) This gives ammunition to her claim that the identities of whole and part must be determined in terms of “the practices that allowed those identities to be defined.” (p. 220) In the case of water, for instance, we can actually speak of two waters: “one of its identities corresponds to the chemist’s purpose in understanding it as a molecule that will interact with other molecules; the other corresponds to the purpose of understanding it as a solvent that is a liquid.” (p. 220; emphasis added) The purposes of the understanding are always what is central, hence my added italics in the passage. But even more surprising is Stengers’ brazen rewriting of “emergence” so that it dwells within the understanding itself. As she puts it, ‘ “water” had to emerge twice: as a molecule composed of ‘parts’ and as a liquid with specific properties, composed of molecules.’ (p. 220) The scare-quotes around ‘water’ and ‘parts’ in this passage should not distract us from what is happening to the non-scare-quoted “emergence.” For Stengers, the term “emergence” no longer pertains to levels of reality where something new happens independently of our understanding; instead, it is produced by that very understanding.

It certainly looks as though Stengers is simply replacing the part/whole dualism of classical disputes over emergence with a new and unimproved twofold in which a non-articulate or semi-articulate world is confronted by human scientists whose practical purposes serve to cut the world into neatly defined sections for the first time.8 Here, Stengers might answer that she does not advocate a two-leveled theory of emergence, but something more like Feibleman’s three-leveled model. Let’s consider how such a model might operate in the framework ofComsopolitics.

Stengers briefly develops her own three-level approach with the example of chemical elements. “Ever since Mendeleev,” she recounts, “the element has been a part of the chemical definition of molecules and reactions, but it presents no problem for emergence.” (p. 220) From there, Stengers goes on to describe an asymmetry between elements/molecules on the one hand and atoms on the other; I will treat ‘elements/molecules’ as a pair only because Stengers does not distinguish between them in this passage. As concerns elements/ molecules: “The chemical element, like matter in the Aristotelian sense, has no properties that could be used to define it ‘in itself.’ Its definition entails the definitions of simple and compound bodies and their reactions.” (p. 220) We will discuss this again shortly. But the case of the atom is apparently quite different: “On the other hand, the atom claims to explain the molecule the way the part explains the whole. It owes its scientific existence to practices of a very different kind, which do not address it as a chemical actor; therefore it can, unlike the element, claim a separable identity.” (p. 220) Along with elements/molecules and atoms, we also find the anticipated third level: “element and atom came to designate the same being only after a series of complicated negotiations in which data from various practices had been articulated and coadapted. And in this process of negotiation, the ‘purpose’ is found ‘above,’ on the level of the practice of negotiation itself.” (p. 220)

Though Stengers does not do all the work for us of mapping her threefold schema onto Feibleman’s triad, it is not difficult to see how she proposes to do so. Stengers’ Feiblemanian analysis runs as follows:

  1. We must consider the element/molecule on its own level. According to Stengers, this level is reminiscent of Aristotelian matter, having no properties in its own right but serving as a kind of amorphous receptacle that gains its qualities only from the levels below and above it. We should note in passing that this first level is both dubious and surprisingly innovative. It is dubious because it is by no means clear that the properties of a chemical element can be reduced either to the properties of its atoms or the uses one makes of the element. Indeed, this is one of the chief recurrent arguments of partisans of real emergence. Yet Stengers simply declares their argument irrelevant by her fiat of comparing chemical elements to ‘Aristotelian matter’ lacking intrinsic properties of their own. Yet in another sense her model is also quite innovative, since normally the defenders of matter-without-qualities place it at the very bottom of the cosmos, rather than at an intermediate level as Stengers does.
  2. Following Feibleman’s threefold method (which Stengers endorses), we must now consider the element/molecule at the level below it. In the present example, atoms are the level just below molecules. “Unlike the element,” Stengers already told us, atoms ‘[can] claim a separable identity.’ Obviously Stengers does not take this to be a permanent special feature of atoms, which (as the scientist Stengers knows even better than the chemical layman) can be analyzed downward into quarks and electrons just as easily as molecules can be analyzed into atoms. What she evidently means is that, given our momentary interest in the element/molecule as a chemical agent, and given the sub-chemical status of atoms, we can treat atoms for the moment as explanatory agents or ‘black boxes’ lacking internal articulations of their own. Certainly, we could always change our question and focus on the composition of atoms instead. But the ‘practices’ relevant to our current question allows us to treat the atom (for now) as an explainer that does not need to be explained in turn.
  3. Finally, we must consider the element/molecule at the level above it. For Stengers (there is no evidence that Feibleman would see it this way) this third level is the most important, since it is not just one among equals, but governs the very production of the difference between the other two. For as we saw, “element and atom came to designate the same being only after a series of complicated negotiations in which data from various practices had been articulated and coadapted. And in this process of negotiation, the ‘purpose’ is found ‘above,’ on the level of the practice of negotiation itself.” (p. 220) There may be three layers, but practice is the layer that rules them all.

In short, Stengers does not argue for a three-leveled theory at all, but for precisely the sort of twofold theory of which we were complaining a few pages ago. First, given that Stengers shows no traces of frank Berkeleyan idealism, she seems to concede that there is a world out there that resists our conceptions and allows for some negotiations to succeed and others to fail. That’s the first level: a world that is not just an image in our minds. And second, there is the dominant layer of praxis and negotiation that allows for the very articulation between parts and wholes in the first place. And what of the additional level that Feibleman requires – the consideration of the element/molecule (or anything else) ‘on its own level’? We recall Stengers’ rather noncommittal description of this level: “The chemical element, like matter in the Aristotelian sense, has no properties that could be used to define it ‘in itself.’ Its definition entails the definitions of simple and compound bodies and their reactions.” (p. 220) The upshot is that nothing has any qualities in its own right (here we are speaking of elements/molecules, but the same would hold for atoms, horses, balloons, persons, nations – for anything at all). A thing gains its properties either from the explanations provided by its own parts, or the ‘purposes’ that articulate it in one way rather than another.

In a word, from the standpoint of object-oriented philosophy, Stengers is a classic duominer who reduces entities simultaneously both to lower-level atoms and higher-level scientific purposes, while reserving for entities themselves nothing but the amorphous status of inarticulate Arisotelian matter, fit only to be shaped by our ‘ecology of practices.’ Reality becomes a hot potato, passed either downward to tiny pieces or upward to all-encompassing practices, but is never stationed wherever we happen to be searching for it. This is the philosophical pitfall of duomining, and I hope that the unfamiliarity of the term does not overshadow the seriousness with which I use it. For all her claims to surpass all the stale old dualistic polemics, Stengers simply shows us the most classic reflex of Western philosophy: a simultaneous reduction of the world in two separate directions rather than one, with each reduction providing an alibi for the other.


Notes

1 For Stengers’ treatment of Prigogine see Cosmopolitics II, Chapter V, Life and Artifice, pp. 105–204. For a more detailed earlier collaboration between the two, (see Prigogine and Stengers, 1984).

2 Stengers makes this claim about Prigogine in Cosmopolitics II, p. 151.

3 Stengers, Cosmopolitics II, pp. 207–233.

4 For an intriguing account of this phenomenon, see the treatment of Badiou and structuralism in Bryant (2011), p. 243 ff.

5 I have criticized this tendency in the work of James Ladyman and Ross, among others. See Harman (2010).

6 I borrow the term ‘duomining’ from the credit card industry, where it refers to the simultaneous use of data and text mining. See Harman (2013).

7 Stengers is quoting here from page 61 of Feibleman (1954).

8 The ‘human scientists’ part is slightly unfair, of course, since Stengers like Latour tries to reinterpret words such as ‘negotiate’ in non-anthropocentric terms (see her remarks on the body’s twofold treatment of water in Cosmopolitics II, p. 221). But the same ontological problems occur even if we allow non-humans to join humans in using their own purposes to carve a largely inarticulate world into pieces. See my remarks about how a global ‘relationism’ is only marginally better than a human-centered ‘correlationism’ in Harman (2009).


References

  1. Barad, K. (2007) Meeting the Universe Halfway: Quantum Physics and the Entanglement of Matter and Meaning. Durham, NC: Duke University Press.
  2. Bryant, L.R. (2011) The Democracy of Objects. Ann Arbor, MI: Open Humanities Press.
  3. DeLanda, M. (2002) Intensive Science and Virtual Philosophy. London: Continuum.
  4. Feibleman, J.K. (1954) Theory of integrative levels. British Journal for the Philosophy of Science 17: 59–66. | Article |
  5. Harman, G. (2009) Prince of Networks: Bruno Latour and Metaphysics. Melbourne: re.press.
  6. Harman, G. (2010) I am also of the opinion that materialism must be destroyed. Environment and Planning D: Society and Space 28(5): 772–790. | Article |
  7. Harman, G. (2011) On the undermining of objects: Grant, Bruno, and radical philosophy. In: L.R. Bryant, N. Srnicek and G. Harman (eds.)The Speculative Turn: Continental Materialism and Realism. Melbourne: re.press.
  8. Harman, G. (2013) Undermining, overmining, and duomining: A critique. In: J. Sutela (ed.) ADD Metaphysics. Aalto Finland: Aalto University Design Research Laboratory, pp. 40–51.
  9. Malabou, C. (2008) What Should We Do With Our Brain? Trans. S. Rand. New York: Fordham Univ. Press.
  10. Prigogine, I. and Stengers, I. (1984) Order Out of Chaos. New York: Bantam.
  11. Stengers, I. (2011) Thinking with Whitehead: A Free and Wild Creation of Concepts. Trans. M. Chase. Cambridge, MA: Harvard Univ. Press.

About the Author

Graham Harman is Distinguished University Professor at the American University in Cairo. He is the author of numerous books, most recently Bells and Whistles: More Speculative Realism (2013).

Horizonte árido (OESP)

‘Questão de natureza política, a água deve ter agenda própria com leis, infraestrutura e campanhas para consumo consciente’, diz engenheiro

22 de março de 2014 | 16h 00

Juliana Sayuri

Secou. Desta vez, faltaram as águas de março fechando o verão. O Cantareira, principal reservatório a hidratar a Grande São Paulo, marcou 14,5% de volume armazenado na sexta-feira, cravando novo recorde negativo desde 1974. São Pedro não colaborou desde dezembro, o cidadão abusou, o político tergiversou e, no fim, São Paulo poderá amargar dias mais secos neste outono.

Na véspera do Dia Mundial da Água, 22 de março, indiana caminha numa tempestade de areia - Anupam Nath/AP

Na véspera do Dia Mundial da Água, 22 de março, indiana caminha numa tempestade de areia. Anupam Nath/AP

“Política é a arte de firmar compromissos. Nesse campos ambientais, isso é muito difícil – Kyoto está aí pra não desmentir ninguém”, afirma Benedito Braga, engenheiro civil, Ph.D. por Stanford e professor da Escola Politécnica da Universidade de São Paulo. “No limite, é competência da cidade. Está na Constituição: prover água é prerrogativa constitucional das prefeituras. Seria do governo do Estado se estivéssemos discutindo obras. Mas agora, para resgatar o Cantareira, nem adianta correr atrás de obras, que ficariam prontas em talvez três anos – e até lá já teríamos morrido de sede”, critica. Que fazer? “Racionar. É a única saída. Não me refiro ao rodízio, que fique claro: racionar é consumir menos que o usual.”

Ex-diretor da Agência Nacional de Águas, Braga preside desde 2012 o World Water Council, um think tank que reúne Nações Unidas, scholars, técnicos, políticos, executivos e ativistas. “Precisamos compreender que água é uma questão de ordem política. Para mudar e melhorar essa situação, é preciso discutir alternativas, ideias inovadoras, soluções inteligentes”, diz. Que essa fonte não seque.

A questão da água está sendo muito discutida nos últimos dias, com a situação do Cantareira. Água é uma pauta política?

Fiz uma palestra nessa semana e, num dos últimos slides, mostrei três caracteres chineses. O primeiro simboliza “rio”. O segundo, “dique”. E o terceiro, que seria a soma dos dois? Logo se imagina que seria “reservatório” ou algo assim, mas não. É “ordem política”. Nossos governantes já notaram isso. No Nordeste, todo político considera a questão da água. No Sudeste, até estes tempos, só discutíamos as inundações. Agora, diante desse quadro do Cantareira… Os políticos precisam compreender que a água deve estar na pauta, com orçamento e tudo mais, pois isso pode lhes custar as eleições. Política é a arte de firmar compromissos, formar consensos, resolver problemas. É muito difícil formar consensos nesses campos – Kyoto está aí pra não desmentir ninguém. A água permeia diferentes setores, como agricultura e energia, mas precisa de uma agenda própria – senão, cada setor faz o que bem entende, desperdiça recursos hídricos cá e lá, falta água… E aí? É uma questão de natureza política. O cidadão pode ajudar? Certamente. Elegendo políticos que tenham uma plataforma coerente. E, francamente, o único sinal que políticos realmente entendem é o voto. Se o cidadão compreender que a água é um tema tão importante quanto a saúde e a educação, o político também deverá compreender.

Cantareira é um bom sistema?

Sim. Foi idealizado por Eduardo Yassuda, professor brilhante da Poli. No início da década de 1970, ele disse: “São Paulo não pode resolver o problema da água com soluções pequeninas. Precisa de soluções de gente grande”. Aí começou a procurar mananciais, Guarapiranga, Tietê, Taiaçupeba, Paraitinga, Ponte Nova. E viu que precisaríamos trazer água do outro lado da serra. Construíram esse sistema, que tem 800 milhões de metros cúbicos de armazenamento, uma vazão que, à época, supria toda a água de São Paulo. Foi uma boa ideia. Mas agora a situação é grave. Não interessa a quem culpar – a variabilidade do clima, o político, a Lua e o planeta Saturno. É tudo junto. Há uma falha na oferta – São Pedro não foi generoso neste verão. E uma falha na demanda – as pessoas não notaram a gravidade da situação e continuaram consumindo como sempre. E a infraestrutura não acompanhou o crescimento da demanda. Agora estão considerando usar o tal volume morto. O que é isso? Se você construir uma obstrução para armazenar água, esse volume contém sedimentos em suspensão. Reservamos um espaço no fundo do reservatório para depositar esse sedimento – e o sistema continua funcionando. O que a Sabesp tem? Tomadas de água, em diferentes alturas. Quando o nível do reservatório está alto, as duas tomadas funcionam. Vem a seca, uma das tomadas não funciona mais. No limite do volume morto, não há mais nada. O nível baixa e baixa, até que uma hora só há sedimentos e não dá para tirar mais nada. É uma alternativa viável do ponto de vista técnico. Mas não é a solução. A solução é parar de usar tanta água.

Racionar.

Racionar, mas não como a maioria imagina. Racionar é consumir menos que o usual. Há duas formas para isso. Primeiro, um rodízio, fechando e abrindo registros em diferentes setores das cidades. Segundo, um racionamento com medidas não estruturais, com bônus para quem economizar, multas para quem extrapolar. Isso deve ser feito por uma lei municipal.

Isso não é responsabilidade do governo do Estado?

Não. A competência legal é do município, nas esferas do Executivo e do Legislativo. Está na Constituição: prover água potável e saneamento é uma prerrogativa constitucional das prefeituras. Se estivéssemos discutindo obras, seria o governo do Estado. Neste momento, nem adianta correr atrás de obras. Eles estimam 18 meses, mas na verdade só ficariam prontas em dois, talvez três anos – e até lá já teríamos morrido de sede. O Estado dá concessão à Sabesp. Mas São Carlos, no interior, não usa Sabesp – e sim o Serviço Autônomo de Água e Esgoto São Carlos (SAAE); Limeira, também no interior, não usa Sabesp, mas a Foz do Brasil/Odebrecht. Diante de qualquer problema, a responsabilidade primeiro é da companhia, mas, no fim, é do prefeito. Que poderia passar uma lei municipal dizendo o seguinte: estamos vivendo uma situação muito grave e, por isso, cada domicílio terá um limite de consumo de 20 metros cúbicos por mês, com tarifa de R$ 10. Se ultrapassar, a tarifa passa a R$ 100. É uma forma de regular o uso, pois o cidadão que estava acostumado a pagar R$ 90 e vê a conta saltar para R$ 500 certamente freará o consumo. No mês seguinte, pode apostar que todas as torneiras vão estar fechadas, o cara não vai mais lavar calçada e não vai demorar no banho. Esse é o racionamento que deveria ser feito, obviamente acompanhado por uma campanha de conscientização para dizer: “Meu amigo, você não será pego de surpresa. Preste atenção, economize água”. É melhor que o rodízio.

Por quê?

Imagine uma tubulação, com juntas para outras tubulações. Quando os tubos estão cheios, ainda há perda de água na linha – eram 35%, agora são 25%. Quer dizer que há vazamentos no sistema. Quando o sistema está pressurizado, a água corre. Quando despressuriza, a água para e entra no solo, misturando-se e voltando às tubulações uma água de qualidade desconhecida. Por isso, o rodízio não é bom. Ainda dá tempo de racionar, mas nossos governantes precisam agir. Na seca, acontecerá o racionamento por rodízio, pois não haverá mais tempo hábil para o outro tipo. A Austrália também passou por uma situação grave. Ali foram dez anos de seca, só agora voltou a chover forte. Os australianos fizeram várias usinas de dessalinização e cortaram a água antes usada para irrigação. No nosso caso, o que poderia ser feito? O governo – alçada estadual no caso dos rios Jaguari e Jacareí, com o Departamento de Águas e Energia Elétrica (DAEE); e federal no rio Piracicaba, com a Agência Nacional de Águas – deveria visitar os lugares de irrigação e dizer: “Meu caro, o que você cultiva aí? Tomate? Pago sua safra, mas você não vai tirar nem um litro a mais de água do rio”. Assim, a água deixa de ser destinada a um uso “menos nobre”, e fica disponível para o consumo dos cidadãos.

Há um modelo de gestão hídrica no mundo?

Não há um país nota 10 em todos os quesitos. Em termos de uso de água no ambiente urbano, diria Cingapura, que reaproveita quase a totalidade de seus esgotos para consumo doméstico. Cingapura dependia da Malásia e, num esforço para se tornar mais autônoma, investiu num programa de reúso de água fantástico, mas muito caro, da ordem de bilhões de dólares. A Namíbia também tem um sistema de reúso de água potável há 40 anos. Talvez, no futuro, tenhamos que fazer isso em São Paulo: reaproveitar e beber o que era nosso esgoto. Em termos de gestão no ambiente agrícola, Espanha e Israel se destacam. Em termos de gestão de recursos hídricos, a França é um bom exemplo. É só lembrar o Sena, muito sujo há 50 anos, limpo agora. Muito dinheiro já foi investido para despoluir o Tietê – mas sinceramente, nem eu nem meus netos nem meus bisnetos veremos esse rio 100% limpo.

Do ponto de vista cultural, o que precisaria mudar para valorizar esse recurso?

A situação que vivemos agora é exemplar. Pense: quando o brasileiro começou a se preocupar em economizar energia? Em 2001, no tal apagão elétrico. Na ocasião, usamos um método de racionamento melhor, com multa. Na época, eu morava em Brasília. Gastava 1.200 quilowatts/hora por mês, passei para 400. E continuei vivendo da mesma forma, só com mais precauções: lembrar de apagar a luz, tirar a tomada, tomar banhos mais breves. Foi uma situação extrema, mas hoje aprendi: sei meus gastos de energia todo mês. Quem sabe agora o paulistano aprenderá o consumo consciente de água?

Qual é a maior agressão à água?

Poluição, sem dúvida. As metas do milênio estabelecidas pelas Nações Unidas em 2000, para serem cumpridas até 2015, previam reduzir à metade o número de pessoas sem acesso à água potável e ao saneamento improved, quer dizer, “melhorado”. Essa expressão foi escolhida propositalmente, pois à época não tínhamos elementos para avaliar os custos para oferecer saneamento para todos. Além da coleta e da disposição de resíduos, precisamos discutir o tratamento do esgoto. Aí realmente a água é agredida. Por exemplo, não podemos viver num ambiente urbano, como nesta região paulistana com um dos metros quadrados mais caros do Brasil, onde o sujeito abre a janela e se depara com o cheiro fétido do Pinheiros. É inadmissível.

Um dia a água valerá mais que o petróleo?

Já vale em certos lugares, como na Arábia Saudita. Ali eles dessalinizam a água do mar – e gastam uma nota, queimando petróleo para poder cultivar trigo no meio do deserto. Há substituto para o petróleo (fontes como a energia hidroelétrica e a nuclear), mas absolutamente nada substitui a água. É um valor capital. A água é muito generosa, pois nos ajuda a crescer: é elemento essencial para sermos cidadãos mais igualitários, pois aumenta nosso desenvolvimento, nossa produção de energia e de grãos. É fundamental para as necessidades essenciais humanas, para o desenvolvimento econômico, para a sustentabilidade ambiental e, certamente, para melhorar a qualidade de vida dos cidadãos.

O sr. se considera otimista ou pessimista?

Um otimista inveterado. Um dia, haverá água para todos, desde que sejamos suficientemente inteligentes para gerenciá-la. Há água na região metropolitana de São Paulo, mas contaminada e poluída. Logo, precisamos de gestão e tecnologia adequadas. Muitos ambientalistas criticam os engenheiros, vistos como “destruidores” da natureza. É a falsa ideia de que a tecnologia é má. Graças à tecnologia, nossa expectativa de vida saltou de 50 para 70, 80 anos. Quem, como Malthus, previu cataclismos, até agora deu com os burros n’água. Há, sim, diversas questões a resolver. E, para resolvê-las, acredito na tecnologia e, principalmente, no ser humano.

Roteiro Meteorológico no Museu Catavento (Fapesp)

19/03/2014

Agência FAPESP – A fim de marcar o Dia Mundial da Meteorologia, o museu Catavento Cultural e Educacional programou, para o dia 23 de março, um “Roteiro Meteorológico”, por meio do qual o visitante poderá saber um pouco mais sobre temas como efeito estufa, poluição atmosférica, (falta de) chuva e incidência de raios.

O roteiro inclui uma visita à estação medidora da Companhia Ambiental do Estado de São Paulo (Cetesb), situada no Parque Dom Pedro II, com entrada pelo pátio interno do Catavento. A seção Engenho conta com instalações como a “Fábrica de Raios” e o “Tornado de Água”, nos quais se explicam como se formam raios, tornados, tufões e furacões.

Ao final, os visitantes poderão conferir a exposição Momento Único, com fotos de raios feitas no Brasil.

A visitação ocorrerá em três horários (11h; 13h30 e 15h), na Praça São Vito, Parque Dom Pedro II, em São Paulo.

Mais informações sobre o museu: www.cataventocultural.org.br/home.

Desenvolvimento portuário gera progresso e vítimas no Brasil (IPS)

Inter Press Service – Reportagens
21/3/2014 – 11h00

por Mario Osava, da IPS

Brasil chica 629x472 Desenvolvimento portuário gera progresso e vítimas no Brasil

Parte do porto Ponta da Madeira, no nordeste do Brasil, de onde saem os navios carregados com o ferro de Carajás, incluídos os meganavios Valemax. Foto: Mario Osava/IPS

São Luís, Brasil, 21/3/2014 – “Somos vítimas do progresso”, lamenta Osmar Santos Coelho, conhecido como Santico. Sua comunidade pesqueira desapareceu, desalojada para a construção de um porto na baía de São Marcos, na parte ocidental da capital do Estado do Maranhão, São Luís, no Nordeste do país. O terminal marítimo de Ponta da Madeira, em operação desde 1986, fortificou a influência de sua proprietária, a mineradora Vale, na cidade de São Luís.

Por esse terminal são exportados atualmente mais de 110 milhões de toneladas anuais de minério de ferro, consolidando um corredor logístico decisivo para o desenvolvimento econômico local. Ali chegam os trens da companhia. A função primordial do porto é transportar a produção de Carajás, gigantesca província mineral da Amazônia oriental que converteu a Vale em líder mundial em ferro. Dali também sai boa parte da soja colhida no centro-norte do Brasil. Ao lado, uma unidade da Vale transforma em pelotas parte do minério.

Essas atividades geram milhares de empregos, especialmente em sua área de influência direta, Itaqui-Bacanga, um conjunto de 58 bairros no sudoeste da capital maranhense. Os jovens sonham com a transnacional Vale pela boa remuneração e por sua política de recursos humanos, herdada de sua longa vida como empresa pública (1942-1997), que assegura estabilidade aos seus trabalhadores. Um empregado “só é demitido se fizer muitas bobagens”, disse um executivo.

Além disso, a empresa multiplicou a oferta de empregos temporários na ampliação do porto e duplicação da ferrovia, para dobrar as exportações minerais a partir de 2018. Por esses e outros projetos locais, a economia do conjunto de bairros vizinhos está em auge, disse George Pereira, secretário da Associação Comunitária Itaqui-Bacanga (Acib). Entre outras iniciativas, estão sendo instaladas aqui três fábricas – de cimento, celulose e fertilizantes –, junto com uma central termoelétrica movida a carvão.

A 55 quilômetros ao sul, a Petrobras construirá, no município de Bacabeira, a Refinaria Premium I, que, quando for inaugurada em 2018, será a maior do Brasil. A obra será licitada em abril e em seu apogeu empregará 25 mil trabalhadores, segundo a companhia.

O auge de empregos ativa o consumo, o comércio e os serviços, “mas não é o desenvolvimento que queremos, com mais dinheiro no bolso, mas sem água para beber, por causa dos rios contaminados”, ressaltou Pereira. Faltam saneamento, água potável, transporte, professores e médicos, enquanto sobram violência, drogas e prostituição nos bairros, cuja população aumentou rapidamente, acrescentou, lembrando que já são cerca de 200 mil habitantes, e que serão mais com dois novos bairros em construção.

Diante dessa realidade, a Vale “faz boas ações, mas isoladas, sem programas transformadores de desenvolvimento territorial”, criticou Pereira. As prioridades são educação e saneamento, afirmou.

Ironicamente, a associação que critica e pressiona a Vale é sua criação. Surgiu por um investimento social da empresa, exigida pelo Banco Nacional de Desenvolvimento Econômico e Social (BNDES) como condição para financiar as unidades de pelotas. A Acib, dirigida por representantes dos cinco setores que compõem Itaqui-Bacanga, foi criada há dez anos para mobilizar a população em favor de um projeto de limpeza urbana. Seu funcionamento e sua sede, um prédio de dois andares, são financiados com contribuições da Vale, explicou Pereira.

Entre as numerosas ações sociais da companhia, algumas se destacam por seus efeitos, como a ampliação do Centro de Educação Profissional de Itaqui-Bacanga, uma escola do Serviço Nacional de Aprendizagem Industrial (Senai). Este ano o centro dá educação técnica a dez mil alunos, o dobro de 2013, e cinco vezes mais do que em 2010, graças a 14 novas salas de aula e cinco laboratórios.

Uma associação semelhante entre Vale e Senai sustenta outros três centros ao longo do corredor entre Carajás e São Luís, disse à IPS a gerente de recursos humanos da mineradora, Janaína Pinheiro. Em 2013, o Senai capacitou 65 mil alunos no Maranhão, contra dez mil há uma década, disse à IPS seu diretor estadual, Marco Moura.

Em São Luís, a industrialização se concentra em torno dos portos da baía de São Marcos. Vizinho de Ponta da Madeira, opera, desde a década de 1970, Itaqui, um porto estatal para todo tipo de carga, que este ano acrescentará seu Terminal de Grãos para exportação de soja e milho produzidos nas novas fronteiras agrícolas do centro e do norte.

Alguns novos portos brasileiros nasceram com vocação de polos industriais. Assim ocorre com Suape e Pecém, respectivamente em Pernambuco e Ceará, planejados como complexos portuário-industriais e que impulsionam a economia local desde a última década. Em ambos há refinarias da Petrobras, além de uma unidade petroquímica e oito estaleiros, isto em Suape, e uma siderúrgica e centrais elétricas, em Pecém. Além disso, muitas empresas estão se instalando nas imensas zonas industriais atrás dos portos.

Brasil chica 2 Desenvolvimento portuário gera progresso e vítimas no Brasil

Osmar Santos Coelho, o Santico, diante da cabana onde guarda suas redes e outros equipamentos de pesca, em uma estreita praia que escapou da invasão do terminal portuário da mineradora Vale, em São Luis, Estado do Maranhão, na região Nordeste do Brasil. Foto: Mario Osava/IPS

Em São Luís, os portos surgiram alheios a essa onda de industrialização, por ficarem na região brasileira mais atrasada em relação a outros polos do Nordeste. A grande profundidade de suas águas, apta para navios de grande calado, sua localização voltada para o Atlântico norte e a conexão com a ferrovia Carajás foram vantagens para instalar o terminal.

Mas, por trás há vítimas, recordou Santico à IPS. Por exemplo, “entre 80 e cem” pescadores artesanais de Boqueirão, que foram expulsos de sua praia e reassentados em diferentes bairros. Alguns anos depois, muitos deles voltaram a pescar em São Marcos, apesar da proibição, e usam como base uma ponta de praia não ocupada pelo porto, explicou.

“Não tínhamos outro ofício e passávamos fome”, afirmou Santico. Terminaram por construir nesse lugar oito precárias cabanas de paus e folha de palmeira, umas poucas para residência e outras apenas para as tralhas de pesca. Santico, de 73 anos, tem sua casa em um bairro próximo e uma cabana na praia, para suas esporádicas pescas noturnas.

“Os peixes quase acabaram, restaram uns poucos camarões”, depois da construção de novos molhes, contou Santico. Por isso negociaram com a Vale, três anos atrás, conseguiram uma canasta de alimentos para 52 pescadores, de entre US$ 308 e US$ 725 dólares. “Com isso sobrevivemos”, reconheceu.

Milhares de outras famílias também foram desalojadas para a construção de atracadouros e instalações portuárias. Itaqui, na verdade, era o nome de um bairro desaparecido. E agora mais bairros estão ameaçados pela zona industrial, em construção à margem da estrada. Vila Maranhão teme sua extinção, cercada pela ferrovia e pelo novo polo, e a poucos quilômetros de uma central elétrica a carvão, uma grande indústria de alumínio e depósitos minerais.

“Ainda não há nada oficial, mas é questão de tempo nos tirarem daqui”, afirmou Lamartine de Moura, diretor da Acib, de 71 anos, 23 deles em Vila Maranhão. “Se eles não nos tirarem de nossas casas, a contaminação o fará”, disse à IPS. Um estudo universitário identificou metais pesados no riacho local, e o pó mineral do ar suja as casas e dissemina enfermidades respiratórias, explicou.

Navios muito grandes para a China

Os 23 metros de profundidade de Ponta da Madeira permitem fundear os Valemax, os maiores navios mineraleiros do mundo, com capacidade para 400 mil toneladas, em operação desde 2011. A China, principal cliente do ferro da Vale, seria o principal destino dessas megaembarcações, mas as proibiu em seus portos por excesso de tamanho. Isso apesar de um estaleiro chinês estar construindo 12 desses navios para o líder mundial em extração de ferro. A Coreia fábrica outros sete.

A meta da Vale é ter 35 Valemax, 16 alugados. Sua grande escala barateia custos e ajuda a competir com a Austrália, outra potência em mineração e mais perto do grande mercado asiático. Além disso, esses navios gigantes reduzem em 35% a emissão de gases-estufa para cada tonelada de minério transportado, destaca a segunda transnacional da mineração do mundo.

Para enfrentar a proibição chinesa, a Vale usa estações de transferência nas Filipinas e logo contará com um centro de distribuição na Malásia, de transbordo para navios menores. Dois portos brasileiros e seis estrangeiros recebem os Valemax atualmente. Envolverde/IPS

(IPS)

Manifestações neozapatistas (Fapesp)

Estudo examina as formas de interação entre os net-ativistas, as redes digitais e a territorialidade

JULIANA SAYURI | Edição 217 – Março de 2014

A máscara Anonymus  foi um dos símbolos  das manifestações do exterior usados pelos  que não queriam  mostrar o rosto

A máscara Anonymus foi um dos símbolos das manifestações do exterior usados pelos que não queriam mostrar o rosto

Muitos textos foram escritos sobre as passeatas de junho de 2013 no Brasil, especialmente em relação ao teor político, à legitimidade e à importância histórica dessas manifestações. Enquanto alguns intelectuais foram surpreendidos por sua dimensão, outros viram nas ruas uma expressão altamente simbólica das articulações do “net-ativismo”. Esta é, a propósito, a expressão-chave de um estudo sob o tema apoiado pela FAPESP,Net-ativismo: ações colaborativas em redes digitais, liderado pelo sociólogo italiano Massimo Di Felice, coordenador do Centro de Pesquisa Atopos da Escola de Comunicações e Artes da Universidade de São Paulo (ECA-USP).

O trabalho, impulsionado pelo caráter internacional do net-ativismo, teve a colaboração de três sociólogos europeus: Michel Maffesoli, fundador e diretor do Centro de Estudos sobre o Atual e o Cotidiano da Universidade Sorbonne, em Paris; José Bragança de Miranda, do Centro de Estudos de Comunicação e Linguagem da Universidade Nova de Lisboa, e Alberto Abruzzese, do Núcleo Italiano de Midialogia da Universidade Livre de Língua e Comunicação, em Milão. Os três, aliás, e mais Pierre Levy, participaram de 6 a 8 de novembro passado do congresso internacional sobre “Net-ativismo, redes digitais e novas práticas de democracia”, na ECA-USP, cujos textos principais deverão estar reunidos em livro no final deste semestre.

Enquanto debatiam a montagem de  um observatório internacional sobre o net-ativismo, Di Felice e colegas encontraram numerosas analogias, especialmente de forma, entre os novos modelos de participação nas redes digitais, entre 2011 e 2013. “Embora  fossem surpreendentemente parecidas as  reivindicações”, observa ele, os pesquisadores optaram por analisar as características das formas de interação entre os ativistas, as redes digitais e a territorialidade. Ou seja, em vez das motivações e dos argumentos políticos, “o que norteou a pesquisa foi a descrição das interacões nessas manifestacões e a amplitude de sua localização”, acrescenta.

Protesto no Congresso Nacional  em junho de 2013 contra gastos na Copa, corrupção e por melhorias no transporte, na saúde e educação

Protesto no Congresso Nacional em junho de 2013 contra gastos na Copa, corrupção e por melhorias no transporte, na saúde e educação

Antes, portanto, da efervescência política e cultural estimulada por diversas mobilizações nas redes e nas ruas, dentro e fora do eixo Rio-São Paulo, o sociólogo já tinha dado seus primeiros passos na investigação do potencial do ativismo articulado nas redes. “O início do estudo foi inspirado por meus percursos, que me levaram a investigar na década passada as formas de conflito na América Latina”, conta Di Felice. A princípio, o pesquisador se dedicou ao movimento zapatista, no México de 1994, que inaugurou o primeiro modelo de protesto global com cartas espalhadas na internet. “Em qualquer canto do mundo, todos os movimentos atuais encontram o zapa-tismo como movimento inspirador. Foi um marco. O rosto coberto dos black blocs e dos Anonymous vem dos zapatistas, assim como a recusa da luta pelo poder, a aversão às tradicionais bandeiras ideológicas e aos partidos políticos de qualquer tendência e a possibilidade de criar uma comunicação própria, como alternativa às mídias oficiais. Esses elementos já se encontravam todos no zapatismo”, diz.

A pesquisa de Di Felice identificou três momentos distintos para o ativismo digi-tal. Primeiro, na década de 1990, o desen-volvimento de movimentos internacionais temáticos, com a difusão de ativismos em redes centralizadas, e de movimentos teóricos da estética na Austrália e na Índia, que pretendiam criar estratégias de ações com os chamados tactical media. Sua atuação se dava nas artes e na política com a busca de  táticas inovadoras de intervenções, com rápida ramificação internacional. Um exemplo é o surgimento dos protestos digitais do movimento Cyberpunk.

No segundo momento, ainda na década de 1990 e começo dos anos 2000, Di Felice assistiu aos desdobramentos da fase indígena e cibernética que encontrou expressão na luta zapatista e inspirou o Fórum Social Mundial. Assim vieram as primeiras práticas de protesto midiático internacional, em cidades como Seattle (em 1999), Praga (em 2000) e Davos (em 2001), marcando a experimentação das primeiras formas de conflitualidade, levando, com a internet, a ação social para dimensões planetárias.

Protestos em Seattle, em novembro de 1999

Protestos em Seattle, em novembro de 1999

Por fim, o terceiro momento ocorreu a partir de 2000 e alcança o presente. Nele, o pesquisador destaca um novo ativismo, que, em muitos casos, provocou processos radicais de transformação – como no caso da Primavera Árabe, com a derrocada de regimes no Egito de Hosni Mubarak, na Líbia de Muamar Kadafi e na Tunísia de Zine el-Abdine Ben Ali – e o surgimento de novas movimentos, como o 5 Estrelas-M5S, na Itália (2009), o #YoSoy132, no México (2012), os indignados do M15, na Espanha (2011), e o M12M de Portugal (2011). Sem esquecer o Occupy Wall Street, nos Estados Unidos (2011), e as jornadas de junho, no Brasil (2013).

Mas o que mudou para propiciar o boom de movimentos tão amplos e diversos? Para Di Felice, a chave está na passagem da web 1.0 para a web 2.0. Antes, a internet era uma rede de computadores conectados por modems e linhas telefônicas, permitindo apenas a troca de textos e de imagens. Eram os tempos das primeiras noções de cibercultura. Na década de 1990, o ciberativismo era considerado uma modalidade de ação política direta de base, marcada pela difusão de informações na rede a fim de boicotar o consumo e realizar ocupações e protestos relacionados aos direitos humanos, civis e ecológicos.

Agora, com o avanço tecnológico e o advento das redes sociais digitais, a internet se tornou uma plataforma plural e conflitiva, com mobilidade e agilidade, facilitando o intercâmbio e o compartilhamento não só de textos e de imagens, mas de outros formatos multimídia. É possível dialogar, criar redes temáticas, trocar conteúdos e buscar soluções de forma colaborativa em tempo real. De acordo com Di Felice, o net-ativismo corresponde a uma forma intensiva de interação na rede, entre indivíduos, territórios e tecnologias digitais. Ao contrário de outros tempos, marcados pela oposição à globalização, esse novo ativismo sinaliza uma identidade cidadã global, possível e presente nas redes digitais, com pautas reivindicatórias direcionadas à democracia, à equidade e à sustentabilidade. “A internet é uma construção coletiva. É uma rede inteligente”, define Di Felice, em entrevista realizada por Skype, conectando Roma-São Paulo.

Na mesma linha, Henrique Antoun, autor de A internet e a rua (Sulina, 2013) e coordenador do Cibercult, laboratório da Escola de Comunicação da Universidade Federal do Rio de Janeiro (UFRJ), analisa: “As redes digitais permitem que as populações experimentem as relações socioglobais e locais de modo lúdico e possam propor novas formas de trabalho, projetos autônomos e novos modos de coletividade e governança. Com o ciberativismo, a massa estúpida se fez uma multidão inteligente, fazendo o pensamento guiar as ações coletivas e submetendo a centralidade da estratégia ao descentramento das táticas”.

Movimento Occupy Wall Street, em setembro de 2011

Movimento Occupy Wall Street, em setembro de 2011

Nesse contexto, o estudo liderado por Di Felice, além de construir uma tipologia da ação net-ativista que caracteriza a qualidade da ação em frontal, imersiva, dialógica e reticular, indicou três características para a definição de net-ativismo. A primeira se refere à singular ecologia das ações que acontecem ao mesmo tempo nas ruas e nas redes digitais. “É uma nova ecologia, muito complexa, agregando dispositivos de conectividade, cidades, corpos e informacões digitais (Big data), por meio de diferentes tipos de atores e de interações. Não há mais distinção entre o mundo ‘real’ e o mundo ‘virtual’”, diz o pesquisador. “Isso inaugura uma nova forma de cidadania que supera a esfera pública, antes possibilitada pela mídia da opinião ‘publicada’, ou seja, pela opinião difundida na esfera pública midiática. Agora todo cidadão pode produzir e compartilhar informações.” Basta pensar nas últimas manifestações embaladas pela hashtag #vemprarua. O manifestante está presente fisicamente na rua e, ao mesmo tempo, pode registrar e postar fotos no Facebook comentando o protesto em tempo real e expandindo assim a localidade de sua atuação. Pode gravar e postar vídeos no YouTube, mostrando realidades diferentes das propagadas pela mídia tradicional. E pode também postar no Twitter, narrando impressões pessoais sobre o que acontece na rua e na rede.

Se não há mais contraposição aparente entre o universo “real” e o “virtual”, o que dizer da diferença entre a esfera pública e o espaço privado? “Atualmente não habitamos só o território, mas também redes inteligentes”, explica. “Esse processo que começou com a eletricidade amplia-se quantitativamente com as redes digitais e os dispositivos de conexão móveis. A conexão ubíqua aos fluxos informativos mediante dispositivos me permitem alterar a minha situação social e a minha experiência da localidade. Onde estamos e onde agimos é hoje cada vez mais o resultado de relações em redes ecológicas complexas”, comenta Di Felice.

A segunda característica do net-ativismo seria a valorização do anonimato (influenciada pelo movimento zapatista) e a recusa de uma identidade política ideológica, sintetizada num líder (recusa reverberada nos protestos no Brasil, por exemplo). Não há um centro difusor de ordens e ideias, mas uma relação horizontal entre os net-ativistas. A terceira característica seria a recusa da institucionalização, expressa na aversão a partidos políticos de quaisquer orientações, o que diferencia essencialmente os movimentos sociais nas redes digitais e os movimentos sociais modernos. “O ativismo digital possibilita a superação da velha ideia de militante, dos ativos nos grêmios universitários e nos partidos políticos. Isso se superou, pois todos nós podemos atuar nas redes digitais. Na rede estão presentes as atividades culturais, os estudos, as relações sociais. Assim, temos uma nova forma de democracia, em que o cidadão é chamado a ser cidadão  ativo todos os dias – e não só na participação com um voto a cada quatro anos”, diz Di Felice.

Mas o net-ativismo está estritamente ligado ao #vemprarua? Isto é, para se realizar, é preciso estar de corpo e alma presente nas manifestações? Talvez não. “O net-ativismo não pode ser pensado apenas na dimensão do protesto ou do conflito. Há redes de cidadãos pensando soluções para diversos impasses de nosso tempo”, observa Di Felice. “A passeata é apenas a expressão visível das redes. Na verdade, o aspecto mais importante do ativismo em rede é o acesso às informações e os debates para a solução direta dos problemas através da criação de redes de inovação.” Na visão do pesquisador, “aí temos um importante papel das universidades. Elas têm a obrigação de estar nas redes e participar desse processo histórico que marca a passagem da sociedade do espetáculo para a sociedade das redes”, conclui.

Projeto
Net-ativismo: ações colaborativas e novas formas de participação em redes digitais (nº 2010/50999-6); Modalidade Auxílio à Pesquisa – Regular; Pesquisadorresponsável Massimo Di Felice; Investimento R$ 30.267,23 (FAPESP).

Artigo científico
DI FELICE, M. Ser redes: o formismo digital dos movimentos net-ativistasRevista Matrizes – USP. v. 7, n. 2, p. 49-71. 2013.

Dá para beber essa água? (Agência Pública)

Ambiente
21/3/2014 – 12h23

por Anne Vigna, para a Agência Pública

Agrotóxicos, metais pesados e substâncias que imitam hormônios podem estar na água que chega à torneira da sua casa ou na mineral, vendida em garrafões, restaurantes e supermercados. Saiba por que nenhuma das duas é totalmente segura

Pesquisar sobre a água não é fácil. Não existem leis ou regras que definam um critério uniforme para a divulgação de dados. Esperei mais de 15 dias, por exemplo, para receber as análises de qualidade para o município de São Paulo, segundo as normas da Portaria 2.914/2011, do Ministério da Saúde. Os mesmos resultados para o Rio de Janeiroestão disponíveis para consulta de qualquer pessoa no site da Companhia Estadual de Águas e Esgotos (Cedae), responsável pelo tratamento de água na cidade. Não se sabe por que uma das concessionárias fornece a informação publicamente, enquanto a outra não diz nada sobre o assunto.

Depois de muita espera e de uma dezena de e-mails trocados, recebi quase todas as análises da capital paulista feitas pela Companhia de Saneamento Básico do Estado de São Paulo (Sabesp), encarregada da água e do saneamento na metrópole. No primeiro envio, porém, faltavam vários dos parâmetros considerados pela portaria do Ministério da Saúde. Por quê? Não há como saber. Depois de insistir mais, recebi todos os dados (aquiaquiaqui e aqui).

Como primeiro resultado dessa investigação sobre a qualidade da água, posso dizer que, em São Paulo e no Rio de Janeiro, dá para beber a água da torneira sem correr o risco de ser vítima de uma contaminação microbiológica. Ninguém vai passar mal, nem ter diarreia. É preciso, no entanto, verificar se a caixa d’água do imóvel está limpa. Tanto em um prédio como em uma casa, ela precisa ser lavada a cada seis meses. Nos condomínios, o síndico é o responsável por cuidar da execução do serviço. Nas residências, o proprietário tem que fazer o trabalho ou contratar uma empresa para isso. Se a limpeza estiver em dia, tudo bem.

A água usada para abastecimento público passa por um processo de tratamento e desinfecção mecânico e químico, que elimina toda a poluição microbiológica (coliformes totais – grupos de bactérias associadas à decomposição da matéria orgânica – e Escherichia coli). “A água da torneira é controlada várias vezes por dia, para se ter certeza de que está sempre dentro dos padrões de qualidade”, afirma Jorge Briard, diretor de produção de água da Cedae, no Rio. Mas o fato de se poder beber a água da torneira não quer dizer que o líquido não esteja poluído – e que não possa causar problemas de saúde no longo prazo.

Regras “adaptadas à realidade brasileira”

Na água do abastecimento público existem vários tipos de poluentes tóxicos. Estudos científicos associam o consumo de muitos deles ao aumento da incidência de câncer na população, enquanto outros têm efeitos ainda pouco conhecidos na saúde. Estão presentes na água que bebemos substâncias químicas como antimônio, arsênio, bário, cádmio, chumbo, cianeto, mercúrio, nitratos, triclorobenzeno, diclorometano; agrotóxicos como atrazina, DDT, trifluralina, endrin e simazina; e desinfetantes como cloro, alumínio ou amônia.

A portaria do Ministério da Saúde controla os níveis de 15 produtos químicos inorgânicos (metais pesados), de 15 produtos químicos orgânicos (solventes), de sete produtos químicos que provêm da desinfecção domiciliar e de 27 tipos de agrotóxicos presentes na água. Na primeira norma de potabilidade da água do Brasil, a Portaria 56/1977, havia apenas 12 tipos de agrotóxicos, 10 produtos químicos inorgânicos (metais pesados) e nenhum produto químico orgânico (solventes), nem produtos químicos secundários da desinfecção domiciliar.

sabesp 033 600x400 Dá para beber essa água?

Tanques usados nas quatro fases do processo de tratamento de água da Estação do Guaraú, em São Paulo: coagulação, floculação, decantação e filtração. Foto: Anne Vigna

A mudança reflete a crescente poluição da indústria, que utiliza metais pesados e solventes; do setor agrícola, que usa agrotóxicos e fertilizantes; e de todos nós, que limpamos a casa com cada vez mais produtos químicos. A assessoria de comunicação do Ministério da Saúde afirma que as substâncias que hoje estão na Portaria 2.914/2011 foram escolhidas a partir “dos avanços do conhecimento técnico-científico, das experiências internacionais e das recomendações da Organização Mundial da Saúde (OMS, 2004), adaptadas à realidade brasileira”.

O último trecho da resposta do ministério, “adaptadas à realidade brasileira”, permite entender a diferença entre os agrotóxicos e contaminantes inorgânicos escolhidos pela Organização Mundial da Saúde (OMS) e os listados na portaria brasileira. A OMS inclui um número muito maior de produtos químicos . Em um dossiê especial sobre agrotóxicos publicado em 2012, a Associação Brasileira de Saúde Coletiva (Abrasco) questiona essa discrepância: “Por que monitorar menos de 10% dos ingredientes ativos oficialmente registrados no país?” O ingrediente ativo, ou princípio ativo, é uma substância que tem algum tipo de efeito em organismos vivos.

Um exemplo é a bentazona. Considerada pela OMS como um poluente da água, a substância não aparece na portaria do Ministério da Saúde. Na bula de agrotóxicos que a contêm, como o Basagran, a bentazona é descrita como “um agroquímico da classe toxicológica I – extremamente tóxico e nocivo por ingestão”. Como herbicida, é muito usada nas culturas de soja, arroz, feijão, milho e trigo. E o que isso tem a ver com a água? Os próprios fabricantes dão a entender que, se for mal utilizada, a bentazona pode causar efeitos danosos sobre o ambiente aquático. “[O produto] é perigoso para o meio ambiente por ser altamente móvel, apresentando alto potencial de deslocamento no solo e podendo atingir principalmente as águas subterrâneas. Possui ainda a característica de ser altamente persistente no meio ambiente, ou seja, de difícil degradação”, diz o texto.

Outro exemplo: um estudo de 2009 sobre a contaminação de mananciais hídricos, liderado pelo pesquisador Diecson Ruy Orsolin da Silva, da Universidade Federal de Pelotas, monitorou a ocorrência de agrotóxicos em águas superficiais de sete regiões do sul do Brasil, associadas ao cultivo de arroz na safra 2007/2008. De todos os produtos detectados – clomazona, quincloraque, penoxsulam, imazetapir, imazapique, carbofurano, 3-hidróxido-carbofurano, fipronil e tebuconazol – somente o carbofurano é controlado pela portaria. Isso mostra que muitos dos agrotóxicos utilizados, e que estão presentes nos meios aquáticos no país, não são fiscalizados pelas empresas de tratamento de água. Elas não são obrigadas pelo Ministério da Saúde a fazer o controle.

Em São Paulo e no Rio, os níveis dos produtos químicos listados na portaria estão dentro dos limites permitidos. Na verdade, os valores de São Paulo são muitos melhores do que os do Rio. Isso é uma boa notícia? Sim e não. “Os processos de transformação química quebram as moléculas tóxicas, fazendo com que desapareçam. Essa manipulação da água cria outros compostos ou resíduos desconhecidos. Ninguém procura por eles e evidentemente não estão na portaria. Hoje ninguém sabe quais são os efeitos dessas moléculas”, diz Fabrice Nicolino, jornalista francês especializado em meio ambiente. Mesmo concentrações muito baixas de algumas substâncias podem ser perigosas.

A polêmica do alumínio

Como se tiram os poluentes da água? Tudo começa com um processo chamado coagulação. Nessa fase, são adicionados sulfato de alumínio e cloreto férrico, para agregar as partículas de sujeira presentes. O uso do sulfato de alumínio é muito polêmico no mundo todo. Ainda que não tenha sido provada uma relação direta entre esse produto químico e a doença de Alzheimer, vários cientistas europeus defendem que ele é responsável pelo aumento da incidência do problema nas últimas duas décadas.

Um estudo feito durante oito anos pelo Instituto Nacional Francês de Saúde e Pesquisa Médica (Inserm), em Bordeaux, no sul da França, concluiu que uma forte concentração de alumínio na água, bebida a vida toda, pode ser um fator de risco para o desenvolvimento de Alzheimer. Realizada por um dos centros de maior prestígio da França, a pesquisa causou – e continua a causar – muito barulho, tanto na imprensa quanto no mundo científico.

Também teve forte impacto um artigo científico dos pesquisadores Chris Exley, da Universidade Keele, e Margaret Esiri, da Universidade de Oxford – ambas no Reino Unido – publicado no Journal of Neurology, Neurosurgery and Psychiatry em 2006. Quando foi realizada a autópsia de Carole Cross, que morreu, aos 59 anos, de Alzheimer, observaram-se altas concentrações de alumínio no seu cérebro. Os autores relacionaram o achado a um acidente que atingiu a cidade de Camelford, na Inglaterra, onde Carole vivia em 1988. Na época, 20 toneladas de sulfato de alumínio foram depositadas por engano nas tubulações de água potável. Os pesquisadores não relacionam diretamente a presença do metal com a doença. Sabe-se, contudo, que o alumínio está ligado a alguns tipos de demência, e que Carole não tinha antecedentes familiares com doenças semelhantes.

Princípio da precaução

Faz um bom tempo que as empresas responsáveis pelo tratamento da água conhecem os perigos do alumínio. Em Paris, a substância deixou de ser usada nesse processo há mais de 20 anos. Adota-se o cloreto férrico. A prefeitura da capital francesa resolveu fazer a mudança pelo que é conhecido como princípio da precaução: se existem antecedentes ou experiências que sugiram um risco, não se espera que a ciência comprove isso. É melhor prevenir do que lidar com o problema depois.

Quando perguntei à Sabesp e à Cedae se achavam possível parar de usar o alumínio, a resposta foi clara. “Mas por quê? O produto funciona muito bem”, disse André Luis Gois Rodrigues, responsável pela qualidade da água na Sabesp. As duas empresas admitiram conhecer a polêmica. “Nada foi comprovado. O uso do alumínio é permitido pelo Ministério da Saúde e também pela OMS. Se um dia for demonstrado que há risco, com certeza deixaremos de usar”, explicou Jorge Briard, da Cedae. Além de ser barato, o sulfato de alumínio permite obter uma cor transparente, um pouquinho azul, bem bonitinha, semelhante à de um rio limpo. Por isso, é bem prático. Ninguém vai se queixar da cor da água.

sabesp 049 600x400 Dá para beber essa água?

Adicionam-se sulfato de alumínio, cloreto férrico ou outro coagulante à água. Nessa fase, a coagulação, as partículas de sujeira agregam-se. Foto: Anne Vigna

Vale lembrar que a água não é a única fonte de absorção do alumínio no corpo. Atualmente a substância encontra-se em altas concentrações na comida (nos legumes e especialmente nos aditivos alimentares, como conservantes, corantes e estabilizadores), nos cosméticos ou nos utensílios de cozinha. De acordo com a OMS, um adulto ingere cerca de 5 miligramas de alumínio por dia apenas da comida. Para a organização, os aditivos são a principal fonte de alumínio no corpo. Em comparação, a água traz um volume muito menor: em média 0,1 miligrama por litro, o que pode somar 0,3 miligrama se você bebe 3 litros por dia. Segundo a entidade, o alumínio na água representa só 4% do que um adulto absorve.

Essa relação também é válida para os agrotóxicos. É bem provável que, comendo legumes não-orgânicos, uma pessoa absorva uma quantidade muito maior desses produtos do que ao beber água. Fazer essa comparação é muito complicado, porque o jeito de contabilizar os agrotóxicos é diferente na comida e na água. Sabemos, porém, que os agrotóxicos são diretamente aplicados nas plantações, e as medições mostram que estão em proporção maior nos alimentos do que na água.

Por conta da grande utilização de medicamentos na criação de animais hoje, os cientistas reconhecem que a dose diária de absorção de antibióticos e hormônios de crescimento é mais importante pela comida do que pela água. O professor Wilson Jardim, da Unicamp, explica, no entanto, que isso não muda o fato de que, mesmo em doses pequenas, os contaminantes presentes na água possam ter um efeito negativo na saúde.

A saída é a garrafinha?

Seria então melhor para a saúde beber água engarrafada, que chega a custar 800 vezes mais do que a água da torneira? A resposta, de novo, não é simples. Em tese, a água envasada tem melhor qualidade por ser subterrânea, o que oferece uma proteção natural contra contaminação. Mas encontrar informações sobre a qualidade da água mineral também é muito complicado no Brasil. A Associação Brasileira de Indústria de Água Mineral (Abinam), que representa as envasadoras da água, negou os pedidos de entrevista para esta reportagem. A comunicação também não é muito aberta do lado das autoridades.

Na verdade, não há como ter acesso à documentação sobre a qualidade da água engarrafada. Para obter a lavraria e a renovação da concessão, uma empresa de água mineral recebe, a cada três anos, a visita dos funcionários do Laboratório de Análises Minerais (Lamin) da Companhia de Pesquisa de Recursos Minerais (CPRM), um órgão federal. Os resultados das análises são comunicados à empresa e ao Departamento Nacional de Produção Mineral (DNPM), responsável pela água mineral no país, mas não ficam disponíveis para o público. Por quê? Não recebi resposta do DNPM.

Essas análises teriam que ser feitas seguindo a resolução RDC 274/2005, da Agência Nacional de Vigilância Sanitária (Anvisa). A norma inclui agrotóxicos e é bem parecida com a portaria que regula a água da torneira. Além de os dados não estarem disponíveis publicamente, outro problema é a forma de fiscalização das fontes. O Lamin do Rio faz análises no país todo, enquanto o de São Paulo concentra-se no estado de São Paulo, onde fica a maior concentração de concessões de água mineral do país. Até o início de 2013, o Lamin do Rio não tinha os equipamentos necessários para fazer as análises dos agrotóxicos, e só no fim de 2014 o Lamin de São Paulo deverá fazer esse trabalho. Ou seja, a resolução levou oito anos para começar a ter todos os seus itens verificados.

Isso não acontece com a água da torneira, que é muito mais controlada. Primeiro, porque ela precisa chegar a toda a população. Segundo, porque a água bruta, a partir da qual se produz a água potável, vem em geral da superfície e está mais sujeita a todo tipo de contaminação. Isso requer atenção constante e análises mais frequentes. A água mineral vem de lençóis subterrâneos, onde fica confinada. É menos poluída do que a que vem dos rios e não recebe nenhum tratamento químico. Depois de um ano fazendo as análises de agrotóxicos, o Lamin do Rio disse que não encontrou esses produtos nas águas minerais de todo o país, com exceção de São Paulo (onde ainda não fazem essa análise e onde está a maior parte das fontes). Mas não tive acesso aos documentos que comprovariam isso.

Ao procurar informações adicionais, descobri que, em São Paulo, a Companhia de Tecnologia de Saneamento Ambiental (Cetesb) iniciou, em 2011, o monitoramento de lençóis subterrâneos do estado em relação à presença de contaminantes e à atividade estrogênica – ou seja, à capacidade de algumas substâncias agirem no sistema reprodutivo humano, antecipando, por exemplo, a puberdade nas meninas ou produzindo esterilidade nos homens. “Não foi detectada atividade estrogênica na maioria dos 33 pontos de amostragem, selecionados em função de sua maior vulnerabilidade. Apenas três locais apresentaram atividade estrogênica baixa. Isso significa que não há potencial de preocupação para a saúde humana se a água for consumida”, explica Gilson Alves Quinaglia, gerente do setor de análises toxicológicas da Cetesb.

sabesp 014 600x400 Dá para beber essa água?

Tanques com cloro e outros produtos químicos usados para tornar a água potável. Foto: Anne Vigna

Agrotóxicos e medicamentos

As empresas de água mineral usam na publicidade o argumento de que a água subterrânea está confinada e, consequentemente, fica protegida da poluição moderna. Seria bom se fosse assim, mas existem estudos que comprovam que a poluição pode chegar a todos os lugares – até mesmo ao subsolo.

No ano passado, uma pesquisa encomendada a laboratórios independentes pelas ONGs 60 Milhões de Consumidores e Fundação Danielle Mitterrand-France Libertés, na França, encontrou tanto agrotóxicos como medicamentos na água engarrafada. “Foi uma surpresa, porque mostra que até a água mineral está poluída. Achamos um agrotóxico, a atrazina, usado no cultivo do milho, que está proibido no país há mais de dez anos. Essa substância tem a propriedade de ser muito persistente no meio ambiente. O que significa que, em dez anos, chega ao subsolo”, explica Thomas Laurenceau, da 60 Milhões de Consumidores.

Outra grande surpresa foi detectar o tamoxifeno, um hormônio usado no tratamento de câncer de mama, nas amostras analisadas. “Os níveis encontrados são muito baixos, mas a presença mostra até que ponto nosso meio ambiente está poluído”, acrescenta Emmanuel Poilane, presidente da France Libertés.

A contaminação não é causada pelas envasadoras de água, e sim pela deterioração geral do meio ambiente. “As empresas de água mineral sempre estão tentando proteger as fontes. Não depredam o meio ambiente. Não é conveniente para elas”, afirma Doralice Assirati, do DNPM. Na Europa e nos Estados Unidos, algumas delas foram obrigadas a fechar explorações, por conta da poluição detectada.

Uma das contaminações possíveis no Brasil seria pelas fossas sépticas, que, às vezes, são malfeitas. No estado de São Paulo, muitas envasadoras de água ficam em áreas urbanas, porque a proximidade do consumidor ajuda o negócio a ser mais lucrativo. Mas, na verdade, o maior problema das águas envasadas não vem do líquido, mas do contêiner de plástico. Se as garrafas e os garrafões fossem de vidro, poderíamos confiar mais na qualidade. Só que os problemas causados pelo uso do plástico já são bastante conhecidos e estudados.

PET, PP, PE, PVC, PC

O mundo dos plásticos é complicado. Aproximadamente 75% da água envasada no Brasil está em garrafões. “Eles podem ser confeccionados em todo e qualquer plástico – PVC, policarbonato (PC), polipropileno (PP) e polietileno (PE) –, desde que obedeçam aos regulamentos da Anvisa para embalagens em contato com alimentos”, afirma Carla Castilho, assessora técnica do Instituto Nacional do Plástico. Isso na teoria. Na prática, a indústria fabrica 90% dos garrafões em polipropileno e o restante, em politereftalato de etileno (PET) e policarbonato, segundo o Instituto Nacional do Plástico. O polipropileno tem custo baixo para o produtor. Isso é uma boa notícia, porque é o plástico menos propenso a ter Bisfenol A (BPA), uma substância química perigosa usada na produção.

A Anvisa autoriza o uso de BPA em materiais plásticos destinados ao contato com alimentos e estabelece, como limite seguro de migração, 0,6 miligrama por quilo de alimento e 0,6 miligrama por litro de bebida. A agência limita-se a estabelecer a quantidade de BPA que pode migrar de um produto para o alimento, não a quantidade máxima presente no produto.

Vários países europeus, como França e Dinamarca, estão proibindo o BPA nas embalagens de alimentos. Isso não tem relação com o nível de migração, e sim com os materiais onde está presente o BPA, como o policarbonato e as resinas epóxi em todas as latas de alumínio. É alta a probabilidade de que a Autoridade Europeia de Segurança Alimentar (EFSA) reduza o nível de migração de 0,5 miligrama por quilo por dia para até 0,005 miligrama por quilo por dia.

No Brasil, somente as embalagens da água mineral Indaiá, do Grupo Edson Queiroz, um dos maiores do país, são feitas de policarbonato. Técnicos da empresa enviaram análises para nos convencer de que não há nenhum problema com os recipientes em policarbonato. Os resultados do laboratório, de fato, são ótimos. Só que os problemas causados pelos plásticos não acontecem quando as embalagens são novas, mas com a manutenção, a exposição ao calor e as múltiplas lavagens dos garrafões, que podem ser usados durante três anos. “Não podemos nos responsabilizar pela manutenção. Não depende da gente”, disse Francisco Sales, gerente industrial do grupo Edson Queiroz. Não, mas também ninguém pode dizer que a degradação dos plásticos não traz problemas para o consumidor. A degradação do PET, material das garrafas descartáveis, não é algo com que se preocupar se o recipiente for usado uma vez só.

Estudos científicos mostram ainda que, com o tempo, mesmo a qualidade da água mineral se degrada. Em 2009, uma pesquisa realizada por Martin Wagner e Jörg Oehlman, da Universidade de Frankfurt, na Alemanha, detectou interferentes endócrinos – isto é, substâncias artificiais que agem no nosso corpo por serem parecidas com hormônios – em 12 das 20 amostras de água mineral analisadas. Os dois cientistas também inseriram moluscos em garrafas PET e de vidro e notaram que, nos recipientes plásticos, houve reprodução em uma velocidade maior. Isso também indica a presença desses contaminantes, que podem ter se desprendido do plástico das garrafas. As indústrias do plástico e da água contestaram os resultados.

2014 03 11 10.06.44 600x450 Dá para beber essa água?

Caminhão com garrafões expostos ao sol no Catumbi, Rio: calor pode soltar componentes do plástico na água. Foto: Anne Vigna

Praticamente na mesma época, as pesquisadoras Barbara Pinto e Daniela Reali, da Universidade de Pisa, na Itália, detectaram uma contaminação semelhante, mas em menor nível, em amostras de água mineral italiana. Elas não souberam explicar a origem dos interferentes que apareceram em 10% das garrafas. Isso levou vários cientistas a pedir para a indústria do plástico que revelasse os segredos de fabricação, para entender o que acontece em uma água que fica um certo tempo nesses recipientes. A resposta foi o silêncio.

Devido à pouca colaboração da indústria, os problemas causados pelos ftalatos, outros produtos químicos usados no plástico, ainda são pouco conhecidos e estudados. Tanto os ftalatos quanto o BPA estão presentes em praticamente todo o plástico que há nas nossas casas. Os ftalatos são usados na fabricação de acessórios domésticos (piso, papel de parede), produtos infantis (mamadeiras, brinquedos, colchonetes para troca de fraldas, mordedores), embalagens (filme transparente, garrafas descartáveis) e até em utensílios médicos (cateteres, bolsas de sangue e soro). O BPA está nos equipamentos esportivos, em dispositivos médicos e odontológicos, produtos para obturação dentária e selantes, lentes para os olhos, todos os produtos com PVC, e policarbonatos, CDs e DVDs, eletrodomésticos, embalagens de plástico duras, jarras de água em plástico duro e latas de alumínio.

“Existem na vida janelas de exposição do BPA mais problemáticas do que outras. As crianças são mais expostas do que um adulto. Também ocorre maior migração de produtos químicos para a comida ou a água com o calor”, diz o pesquisador Wilson Jardim, da Unicamp. Ou seja, ainda falta muita informação sobre o perigo dos produtos e a toxicidade dos que já estão no meio ambiente. Hoje, temos consciência do perigo de substâncias que a geração anterior à nossa usava de maneira regular, como o DDT. Mas, como acontece agora, a indústria ou não informava ou negava o problema da contaminação.

Qual água é melhor?

É impossível saber se a água envasada é de melhor qualidade do que a água da torneira, pois há muito pouca informação sobre o uso de recipientes plásticos. A água tratada também tem poluentes em um nível pouco conhecido, mas com certeza menor do que o da comida não orgânica. A grande diferença entre as duas é que a água envasada traz ainda mais problemas para o meio ambiente, pelo fato de gerar lixo, aumentar as emissões de carbono e envolver consumo de energia na sua produção.

Como melhorar a água da torneira? (Veja o infográfico animado aqui.)

Parece que o único caminho para salvar a água potável é o da cidadania. As melhores experiências para se obter uma qualidade de água razoável ocorrem quando os cidadãos participam da gestão da água, fiscalizando as empresas de tratamento e exigindo que as autoridades aumentem o orçamento para o recurso “água”.

Hoje, o monitoramento das concessionárias no Brasil é feito pelas agências de vigilância sanitária de cada estado. Mas até as empresas reconhecem que não há fiscalização. As autoridades não parecem ter vontade de aumentar o orçamento para saneamento, mesmo sabendo, há muitos anos, que isso é mais do que necessário para melhorar tanto a água e o meio ambiente quanto a saúde das pessoas.

Ainda é possível mudar as coisas. As soluções existem, só que custam caro. No mesmo estudo sobre a contaminação das garrafas de água com agrotóxicos e medicamentos, as ONGs foram para regiões mais poluídas da França (nem toda a França é como Paris), onde os agrotóxicos chegam a níveis bem acima do permitido pela legislação, há muitos anos. A poluição obrigou as autoridades a investir em tecnologia de ponta para melhorar a qualidade da água. Conseguiram. Entre essas novas tecnologias estão nanofiltração, ultrafiltração, osmose reversa e tratamento com raios ultravioleta solares. Mas, para que os impostos sirvam a essa causa, a mobilização das pessoas é obrigatória.

No Canadá, na Europa, no México ou na Bolívia, existem numerosos exemplos de como a população retomou o poder sobre a qualidade, o preço e, inclusive, a propriedade da água. Também é necessária a vontade política das autoridades para limitar o uso de produtos químicos no meio ambiente e aumentar o apoio à agricultura orgânica. E da ajuda de todos no momento das compras – um consumo consciente, que prefira produtos menos danosos ao meio ambiente, tanto na fabricação quanto na vida útil. Isso significa não trocar de celular a cada novo modelo ou deixar de beber três pequenas garrafas plásticas de água por dia.

Infografico 1 parte 1 Dá para beber essa água?

Infografico 1 parte 2 1 Dá para beber essa água?

Infografico 1 parte 3 Dá para beber essa água?

Infografico 1 parte 4 Dá para beber essa água?

Infografico 1 parte 5 Dá para beber essa água?

Infografico 1 parte 6 Dá para beber essa água?

* Publicado originalmente no site Agência Pública.

(Agência Pública)

Preso por ser jovem, pobre e usar boné (Envolverde)

Inter Press Service – Reportagens
19/3/2014 – 12h52

por Fabiana Frayssinet, da IPS

marcha Preso por ser jovem, pobre e usar boné

Cerca de 15 mil pessoas participaram, no dia 20 de novembro de 2013, da Marcha do Boné, na cidade argentina de Córdoba, denunciando a arbitrariedade policial contra os jovens, segundo sua aparência e condição. Foto: Cortesia do coletivo de Jovens por Nossos Direitos

Córdoba, Argentina, 19/3/2014 – Na província argentina de Córdoba, basta ser jovem, moreno, pobre e usar boné para ser detido como suspeito. A arbitrariedade policial se ampara no crime de “merodeo” (vadiagem), um instrumento de prevenção do crime que viola direitos constitucionais. José María Luque, conhecido como Bichi, perdeu a conta de quantas vezes foi detido pela polícia por essas características, em Córdoba, capital da província de mesmo nome. Residente em um bairro humilde, Luque, de 28 anos, foi detido pela primeira vez quando tinha 13 anos e voltava da escola com um amigo, vestido com uniforme escolar. Ficou detido por uma semana.

“Eles nos pararam, pediram documentos e nos levaram presos. Assim, sem mais nem menos. Inventaram uma acusação contra mim: tentativa de roubo qualificado e porte de arma de fogo. Saí por falta de provas”, contou Luque à IPS. Agora ele integra o Coletivo de Jovens por Nossos Direitos, que luta contra o abuso policial. Afirma que teve sorte porque sua família conseguiu pagar um advogado e não lhe restou antecedentes.

Porém, essa não é a realidade de muitos jovens detidos com base no Código de Faltas, de Córdoba, aplicado desde 1994 e reformado em 2007. Um estudo da Universidade Nacional de Córdoba e da espanhola Universidade de La Rioja revela que 95% dos detidos por esse Código não têm acesso a advogados. “Com uma falta em seu prontuário não se tem acesso ao atestado de boa conduta, um dos requisitos mais solicitados pelas empresas na hora de contratar”, ressaltou Luque.

O código pune condutas que supostamente prejudicam a convivência social, como escândalo em via pública, omissão de identificação, resistência à autoridade, alcoolismo, mendicância e ócio. Segundo o estudo, quase 70% dos infratores são acusados de vadiagem, uma falta muito polêmica que permite à polícia deter suspeitos de vadiar, o

que o dicionário da língua espanhola define como “vagar pelas imediações de algum lugar, em geral, com maus objetivos”.

O Artigo 98 do Código pune com multas e até cinco dias de detenção quem permanecer perto de veículos ou instalações urbanas ou rurais “em atitude suspeita, sem uma razão plausível, provocando intranquilidade entre seus proprietários, moradores, transeuntes ou vizinhos”. “É uma figura totalmente subjetiva e arbitrária. Não é explicada qual é a atitude que se deve ter para não ser detido”, apontou Luque, que trabalha desde adolescente e agora é pizzaiolo.

Bichi e outros jovens de semelhante extrato social costumam apresentar um padrão que os identifica: bonés coloridos, calças esportivas e sapatos vistosos. Mas a polícia equipara esse hábito cultural com a presunção de culpabilidade. “Muitos detidos usam boné. O boné é suspeito”, destacou Luque, um dos organizadores da Marcha do Boné, que a cada mês de novembro, há sete anos, pede a revogação do Código de Faltas e que, em 2013, reuniu 15 mil pessoas.

“Digam o que disserem, a acusação de vadiagem é aplicada para que, quando houver morenos com boné nos bairros da periferia, dando voltas por algum lugar, a polícia os detenha”, disse à IPS o advogado Claudio Orosz, representante em Córdoba da organização humanitária Centro de Estudos Legais e Sociais. Orosz atribui o Código a uma sociedade “conservadora e moralista”, herdeira da “repressão e do genocídio” da última ditadura argentina (1976-1983). Para este advogado de casos de crimes de lesa humanidade, por causa dessa cultura, os pobres sofrem o “labirinto kafkiano” da vadiagem.

Segundo um estudo universitário, os detidos nesse contexto são majoritariamente jovens entre 18 e 25 anos dos setores desfavorecidos. Durante 2011, foram detidas 73 mil pessoas na província, 43 mil delas na capital. “Acontece sempre o mesmo: se vem de um lugar pobre, é pobre, tem certa forma de se vestir, tem certos traços físicos, uma determinada cor de pele, e já se é perigoso para a sociedade”, explicou Luque.

Um dos pontos mais questionados do Código é que outorga atribuição de juiz ao delegado de polícia. Isso é uma ironia porque a polícia cordobesa é a que “estrutura e mantém os grandes problemas criminais, os que geram maior dano à sociedade, como tráfico de pessoas, narcotráfico, roubo de peças de carros e venda de armas”, disse Agustín Sposato, também integrante do coletivo juvenil.

Outro agravante, segundo Orosz, são os precários sistemas de impressão digital e investigação de antecedentes nas delegacias de Córdoba. “Às vezes, demora-se três dias para saber se alguém tem antecedentes para depois ser solto, o que constitui verdadeiras privações ilegítimas de liberdade”, ressaltou. “É um sistema de controle social, formalizado pela polícia, que fere os controles básicos de constitucionalidade”, afirmou.

Para Orosz, “o Código de Faltas entrega enorme poder de seletividade e de controle social às forças policiais, sem o controle judicial”. Luque sabe bem. “Nas vezes em que me detiveram, vivi essa sensação de privação ilegítima da liberdade, de sequestro, de não saber quando vai sair, não saber como avisar a família e os amigos que você está ali. A impotência é muito grande, muito obscura, muito feia”, enfatizou.

O governador de Códoba, José Manuel De la Sota, apresentou, em 1º de fevereiro, um projeto de reforma do Código de Faltas, que o parlamento provincial está analisando.

Sergio Busso, presidente do bloco legislativo da governante União por Córdoba, considera necessário manter a figura da vadiagem, porque é importante no combate à crescente insegurança da população na província. Ele disse à IPS que o Código “é um instrumento que regula e pune as condutas antijurídicas, que afetam o direito das pessoas ou da sociedade em seu conjunto e que, por serem leves, não chegam a configurar crime”.

No entanto, Busso admitiu que são necessárias reformas, para que “a prisão e a multa só sejam aplicadas em situações especiais e em seu lugar sejam utilizadas mais as penas substitutivas e acessórias, como trabalho comunitário”. Além disso, para o parlamentar, deve mudar quem pune. O projeto propõe que a falta seja dirimida por promotores ou juízes específicos, e não policiais, “para separar quem julga de quem executa o procedimento” e para garantir “um olhar independente”.

Segundo Orosz, isso já foi tentado e não se pôde aplicar porque o sistema judicial sofreu um colapso com a avalanche de casos. Busso explicou que a reforma contempla que a falta de vadiagem exija a denúncia prévia de um morador identificado. Mas Orosz criticou que esse denunciante é “igualmente subjetivo”. O advogado considera que se deve revogar o Código de Faltas e substituí-lo por outro de convivência, que estabeleça “quais são as condutas desejadas e mecanismos de resolução de conflitos que não sejam necessariamente a prisão”, como a mediação vicinal.

Para o jovem Sposato, as reformas propostas “são uma maquiagem, para acalmar o clima de conflito social” na província. “O que está em jogo é a vida, os direitos das pessoas, a possibilidade de todos na província serem iguais”, destacou.

Faltas versus direitos humanos

Os códigos de faltas e contravenções, para tratar condutas ilícitas que não chegam a ser delitos penais, existem nas 23 províncias da Argentina e na Cidade Autônoma de Buenos Aires. Em 33% dos casos, é a polícia que detém, investiga e sanciona, o que propicia excessos e violações dos direitos humanos.

Em 2003, o Tribunal Interamericano de Direitos Humanos condenou o Estado argentino pela detenção ilegal, em 1991, de Walter Bulacio, de 17 anos, durante um show em Buenos Aires, pelo Código de Contravenções. O jovem morreu vítima da brutalidade policial. O tribunal ordenou ao país adequar o ordenamento jurídico interno à Convenção Americana sobre Direitos Humanos e outras normas internacionais.

Os códigos surgiram principalmente durante os regimes autoritários do século passado, mas foram atualizados pela democracia. Para muitas organizações humanitárias, um de seus problemas é que se introduzem dissimuladamente no âmbito penal, de competência nacional, criando de fato a figura de “delitos menores” provinciais.

Além disso, boa parte deles são difusos nas contravenções, o que colabora para sua discricionariedade, e negam o direito à defesa, à livre circulação, à liberdade pessoal, ao devido processo e ao juiz natural, entre outras anomalias jurisdicionais e humanitárias.

Fontes: Federação Argentina LGBT e Associação pelos Direitos Civis

Envolverde/IPS

Return of the oppressed (Aeon)

From the Roman Empire to our own Gilded Age, inequality moves in cycles. The future looks like a rough ride

by 

Jack Whinery and family, homesteaders photographed in Pie Town, New Mexico, October 1940. Photo courtesy the Library of CongressJack Whinery and family, homesteaders photographed in Pie Town, New Mexico, October 1940. Photo courtesy the Library of Congress

Peter Turchin is professor of ecology and mathematics at the University of Connecticut and vice president of the Evolution Institute. He co-authored Secular Cycles (2009).

Today, the top one per cent of incomes in the United States accounts for one fifth of US earnings. The top one per cent of fortunes holds two-fifths of the total wealth. Just one rich family, the six heirs of the brothers Sam and James Walton, founders of Walmart, are worth more than the bottom 40 per cent of the American population combined ($115 billion in 2012).

After thousands of scholarly and popular articles on the topic, one might think we would have a pretty good idea why the richest people in the US are pulling away from the rest. But it seems we don’t. As the Congressional Budget Office concluded in 2011: ‘the precise reasons for the rapid growth in income at the top are not well understood’. Some commentators point to economic factors, some to politics, and others again to culture. Yet obviously enough, all these factors must interact in complex ways. What is slightly less obvious is how a very long historical perspective can help us to see the whole mechanism.

In his book Wealth and Democracy (2002), Kevin Phillips came up with a useful way of thinking about the changing patterns of wealth inequality in the US. He looked at the net wealth of the nation’s median household and compared it with the size of the largest fortune in the US. The ratio of the two figures provided a rough measure of wealth inequality, and that’s what he tracked, touching down every decade or so from the turn of the 19th century all the way to the present. In doing so, he found a striking pattern.

We found repeated back-and-forth swings in demographic, economic, social, and political structures

From 1800 to the 1920s, inequality increased more than a hundredfold. Then came the reversal: from the 1920s to 1980, it shrank back to levels not seen since the mid-19th century. Over that time, the top fortunes hardly grew (from one to two billion dollars; a decline in real terms). Yet the wealth of a typical family increased by a multiple of 40. From 1980 to the present, the wealth gap has been on another steep, if erratic, rise. Commentators have called the period from 1920s to 1970s the ‘great compression’. The past 30 years are known as the ‘great divergence’. Bring the 19th century into the picture, however, and one sees not isolated movements so much as a rhythm. In other words, when looked at over a long period, the development of wealth inequality in the US appears to be cyclical. And if it’s cyclical, we can predict what happens next.

An obvious objection presents itself at this point. Does observing just one and a half cycles really show that there is a regular pattern in the dynamics of inequality? No, by itself it doesn’t. But this is where looking at other historical societies becomes interesting. In our bookSecular Cycles (2009), Sergey Nefedov and I applied the Phillips approach to England, France and Russia throughout both the medieval and early modern periods, and also to ancient Rome. All of these societies (and others for which information was patchier) went through recurring ‘secular’ cycles, which is to say, very long ones. Over periods of two to three centuries, we found repeated back-and-forth swings in demographic, economic, social, and political structures. And the cycles of inequality were an integral part of the overall motion.

Incidentally, when students of dynamical systems (or, more colourfully, ‘chaoticians’ such as Jeff Goldblum’s character in the filmJurassic Park) talk about ‘cycles’, we do not mean rigid, mechanical, clock-like movements. Cycles in the real world are chaotic, because complex systems such as human societies have many parts that are constantly moving and influencing each other. Despite this complexity, our historical research on Rome, England, France, Russia and now the US shows that these complex interactions add up to a general rhythm. Upward trends in variables (for example, economic inequality) alternate with downward trends. And most importantly, the ways in which other parts of the system move can tell us why certain trends periodically reverse themselves. Understanding (and perhaps even forecasting) such trend-reversals is at the core of the new discipline of cliodynamics, which looks at history through the lens of mathematical modelling.

So it looks like the pattern that we see in the US is real. Ours is, of course, a very different society from ancient Rome or medieval England. It is cut off from them by the Industrial Revolution and by innumerable advances in technology since then. Even so, a historically based model might shed light on what has been happening in the US over the past three decades.

First, we need to think about jobs. Unless other forces intervene, an overabundance of labour will tend to drive down its price, which naturally means that workers and their families have less to live on. One of the most important forces affecting the labour supply in the US has been immigration, and it turns out that immigration, as measured by the proportion of the population who were born abroad, has changed in a cyclical manner just like inequality. In fact, the periods of high immigration coincided with the periods of stagnating wages. The Great Compression, meanwhile, unfolded under a low-immigration regime. This tallies with work by the Harvard economist George Borjas, who argues that immigration plays an important role in depressing wages, especially for those unskilled workers who compete most directly with new arrivals.

Immigration is only one part of a complex story. Another reason why the labour supply in the US went up in the 19th century is, not to put too fine a point on it, sex. The native-born population was growing at what were, at the time, unprecedented rates: a 2.9 per cent growth per year in the 1800s, only gradually declining after that. By 1850 there was no available farmland in Eastern Seaboard states. Many from that ‘population surplus’ moved west, but others ended up in eastern cities where, of course, they competed for jobs with new immigrants.

This connection between the oversupply of labour and plummeting living standards for the poor is one of the more robust generalisations in history. Consider the case of medieval England. The population of England doubled between 1150 and 1300. There was little possibility of overseas emigration, so the ‘surplus’ peasants flocked to the cities, causing the population of London to balloon from 20,000 to 80,000. Too many hungry mouths and too many idle hands resulted in a fourfold increase in food prices and a halving of real wages. Then, when a series of horrible epidemics, starting with the Black Death of 1348, carried away more than half of the population, the same dynamic ran in reverse. The catastrophe, paradoxically, introduced a Golden Age for common people. Real wages tripled and living standards went up, both quantitatively and qualitatively. Common people relied less on bread, gorging themselves instead on meat, fish, and dairy products.

The tug of war between the top and typical incomes doesn’t have to be a zero-sum game, but in practice it often is

Much the same pattern can be seen during the secular cycle of the Roman Principate. The population of the Roman Empire grew rapidly during the first two centuries up to 165AD. Then came a series of deadly epidemics, known as the Antonine Plague. In Roman Egypt, for which we have contemporary data thanks to preserved papyri, real wages first fell (when the population increased) and then regained ground (when the population collapsed). We also know that many grain fields were converted to orchards and vineyards following the plagues. The implication is that the standard of life for common people improved — they ate less bread, more fruit, and drank wine. The gap between common people and the elites shrank.

Naturally, the conditions affecting the labour supply were different in the second half of the 20th century in the US. An important new element was globalisation, which allows corporations to move jobs to poorer countries (with that ‘giant sucking sound’, as Ross Perot put it during his 1992 presidential campaign). But none of this alters the fact that an oversupply of labour tends to depress wages for the poorer section of the population. And just as in Roman Egypt, the poor in the US today eat more energy-dense foods — bread, pasta, and potatoes — while the wealthy eat more fruit and drink wine.

Falling wages isn’t the only reason why labour oversupply leads to inequality. As the slice of the economic pie going to employees diminishes, the share going to employers goes up. Periods of rapid growth for top fortunes are commonly associated with stagnating incomes for the majority. Equally, when worker incomes grew in the Great Compression, top fortunes actually declined in real terms. The tug of war between the top and typical incomes doesn’t have to be a zero-sum game, but in practice it often is. And so in 13th-century England, as the overall population doubles, we find landowners charging peasants higher rents and paying less in wages: the immiseration of the general populace translates into a Golden Age for the aristocrats.

As the historian Christopher Dyer wrote, life was good for the upper-crust English around 1300. They drank more wine and spent their spare cash building or refurbishing castles, cathedrals, and monasteries. They didn’t just enjoy a better living standard; they also grew in number. For example, the number of knights and esquires tripled between 1200 and 1300. But disaster struck in 1348, when the Black Death removed the population surplus (and then some). By the 15th century, while the common people were enjoying their own Golden Age, the aristocracy had fallen on hard times. We can infer the severity of their financial straits from the amount of claret imported from France. Only the gentry drank wine, and around 1300, England imported 20,000 tuns or casks of it from France per year. By 1460, this declined to only 5,000. In the mid-15th century, there were simply fewer aristocrats and they were much poorer.

In the US between around 1870 and 1900, there was another Golden Age for the elites, appropriately called the Gilded Age. While living standards for the majority declined (seen vividly in dwindling average heights and life expectancies), the moneyed classes were enjoying ever more luxurious lifestyles. And just like in 13th-century England, the total number of the wealthy was shooting up. Between 1825 and 1900, the number of millionaires (in constant 1900 dollars) went from 2.5 per million of the population to 19 per million. In our current cycle, the proportion of decamillionaires (those whose net worth exceeds 10 million in 1995 dollars) grew tenfold between 1992 and 2007 — from 0.04 to 0.4 per cent of the US population.

This seems like a peculiar development. The reason for it — cheeringly enough, you might say — is that cheap labour allows many enterprising, hard-working or simply lucky members of the poorer classes to climb into the ranks of the wealthy. In the 19th century, a skilled artisan in the US could expand his workshop by hiring other workers, eventually becoming the owner of a large business; Sven Beckert’s The Monied Metropolis (2003) describes many instances of this story playing out. In America today, enterprising and hard-working individuals start dotcom companies or claw their way into jobs as the CEOs of large corporations.

On the face of it, this is a wonderful testament to merit-based upward mobility. But there are side effects. Don’t forget that most people are stuck with stagnant or falling real wages. Upward mobility for a few hollows out the middle class and causes the social pyramid to become top-heavy. Too many elites relative to the general population (a condition I call ‘elite overproduction’) leads to ever-stiffer rivalry in the upper echelons. And then you get trouble.

In the US, there is famously a close connection between wealth and power. Many well-off individuals — typically not the founders of great fortunes but their children and grandchildren — choose to enter politics (Mitt Romney is a convenient example, though the Kennedy clan also comes to mind). Yet the number of political offices is fixed: there are only so many senators and representatives at the federal and state levels, and only one US president. As the ranks of the wealthy swell, so too do the numbers of wealthy aspirants for the finite supply of political positions.

When watching political battles in today’s Senate, it is hard not to think about their parallels in Republican Rome. The population of Italy roughly doubled during the second century BC, while the number of aristocrats increased even more. Again, the supply of political offices was fixed — there were 300 places in the senate and membership was for life. By the end of the century, competition for influence had turned ugly. During the Gracchan period (139—110BC), political feuding led to the slaughter of the tribunes Tiberius and Gaius on the streets of Rome. During the next century, intra-elite conflict spilt out of Rome into Italy and then into the broader Mediterranean. The civil wars of the first century BC, fuelled by a surplus of politically ambitious aristocrats, ultimately caused the fall of the Republic and the establishment of the Empire.

Beside sheer numbers, there is a further, subtler factor that aggravates internal class rivalry. So far I have been talking about the elites as if they are all the same. But they aren’t: the differences within the wealthiest one per cent are almost as stark as the difference between the top one per cent and the remaining 99. The millionaires want to reach the level of decamillionaires, who strive to match the centimillionaires, who are trying to keep up with billionaires. The result is very intense status rivalry, expressed through conspicuous consumption. Towards the end of the Republic, Roman aristocrats competed by exhibiting works of art and massive silver decorations in their homes. They threw extravagant banquets with peacocks from Samos, oysters from Lake Lucrino and snails from Africa, all imported at great expense. Archaeology confirms a genuine and dramatic shift towards luxury.

The US political system is much more attuned to the wishes of the rich than to the aspirations of the poor

Intra-elite competition also seems to affect the social mood. Norms of competition and extreme individualism become prevalent and norms of co-operation and collective action recede. Social Darwinism took off during the original Gilded Age, and Ayn Rand (who argued that altruism is evil) has grown astonishingly popular during what we might call our Second Gilded Age. The glorification of competition and individual success in itself becomes a driver of economic inequality. As Christopher Hayes wrote in Twilight of the Elites (2012): ‘defenders of the status quo invoke a kind of neo-Calvinist logic by saying that those at the top, by virtue of their placement there, must be the most deserving’. By the same reasoning, those at the bottom are not deserving. As such social norms spread, it becomes increasingly easy for CEOs to justify giving themselves huge bonuses while cutting the wages of workers.

Such cultural attitudes work with economic forces to widen inequality. Economists know very well that few markets are ‘efficient’ in the sense that their prices are set entirely by the forces of supply and demand. Labour markets are especially sensitive to cultural norms about what is fair compensation, so prevailing theories about inequality have practical consequences. And labour markets are also strongly affected by government regulation, as the economist and Nobel laureate Joseph Stiglitz has argued. So let’s consider how politics enters the equation here.

The US, as we saw, breeds strong links between wealth and politics. Some wealthy individuals run for office themselves. Others use their money to support their favoured politicians and policies. As a result, the US political system is much more attuned to the wishes of the rich than to the aspirations of the poor. Kevin Phillips has been one of the most influential voices raised in alarm at the dangers for democracy of growing wealth disparity.

Inverse relationship between well-being and inequality in American history. The peaks and valleys of inequality (in purple) represent the ratio of the largest fortunes to the median wealth of households (the Phillips curve). The blue-shaded curve combines four measures of well-being: economic (the fraction of economic growth that is paid to workers as wages), health (life expectancy and the average height of native-born population), and social optimism (the average age of first marriage, with early marriages indicating social optimism and delayed marriages indicating social pessimism).Inverse relationship between well-being and inequality in American history. The peaks and valleys of inequality (in purple) represent the ratio of the largest fortunes to the median wealth of households (the Phillips curve). The blue-shaded curve combines four measures of well-being: economic (the fraction of economic growth that is paid to workers as wages), health (life expectancy and the average height of native-born population), and social optimism (the average age of first marriage, with early marriages indicating social optimism and delayed marriages indicating social pessimism).

Yet the US political system has been under the influence of wealthy elites ever since the American Revolution. In some historical periods it worked primarily for the benefit of the wealthy. In others, it pursued policies that benefited the society as a whole. Take the minimum wage, which grew during the Great Compression era and declined (in real terms) after 1980. The proportion of American workers who were unionised changed in a similarly cyclical fashion, as the legislative field tilted first one way then the other. The top marginal tax rate was 68 per cent or higher before 1980; by 1988 it declined to 28 per cent. In one era, government policy systematically favoured the majority, while in another it favoured the narrow interests of the wealthy elites. This inconsistency calls for explanation.

It is relatively easy to understand the periods when the wealthy bent the agenda to suit their interests (though of course, not all rich people care exclusively about their own wealth). How, though, can we account for the much more broadly inclusive policies of the Great Compression era? And what caused the reversal that ended the Gilded Age and ushered in the Great Compression? Or the second switch, which took place around 1980?

History provides another clue. Unequal societies generally turn a corner once they have passed through a long spell of political instability. Governing elites tire of incessant violence and disorder. They realise that they need to suppress their internal rivalries, and switch to a more co-operative way of governing, if they are to have any hope of preserving the social order. We see this shift in the social mood repeatedly throughout history — towards the end of the Roman civil wars (first century BC), following the English Wars of the Roses (1455-85), and after the Fronde (1648-53), the final great outbreak of violence that had been convulsing France since the Wars of Religion began in the late 16th century. Put simply, it is fear of revolution that restores equality. And my analysis of US history in a forthcoming book suggests that this is precisely what happened in the US around 1920.

Reforms that ensured an equitable distribution of the fruits of economic growth turned out to be a highly effective counter to the lure of Bolshevism

These were the years of extreme insecurity. There were race riots (the ‘Red Summer of 1919’), worker insurrections, and an Italian anarchist terrorist campaign aimed directly at the elites. The worst incident in US labour history was the West Virginia Mine War of 1920—21, culminating in the Battle of Blair Mountain. Although it started as a workers’ dispute, the Mine War eventually turned into the largest armed insurrection that the US has ever seen, the Civil War excepted. Between 10,000 and 15,000 miners armed with rifles battled against thousands of strikebreakers and sheriff deputies. The federal government eventually called in the Air Force, the only time it has ever done so against its own people. Add to all this the rise of the Soviet Union and the wave of socialist revolutions that swept Europe after the First World War, triggering the Red Scare of 1921, and you get a sense of the atmosphere. Quantitative data indicate that this period was the most violent in US history, second only to the Civil War. It was much, much worse than the 1960s.

The US, in short, was in a revolutionary situation, and many among the political and business elites realised it. They began to push through a remarkable series of reforms. In 1921 and 1924, Congress passed legislation that effectively shut down immigration into the US. Although much of the motivation behind these laws was to exclude ‘dangerous aliens’ such as Italian anarchists and Eastern European socialists, the broader effect was to reduce the labour surplus. Worker wages grew rapidly. At around the same time, federal income tax came in and the rate at which top incomes were taxed began to increase. Somewhat later, provoked by the Great Depression, other laws legalised collective bargaining through unions, introduced a minimum wage, and established Social Security.

The US elites entered into an unwritten compact with the working classes. This implicit contract included the promise that the fruits of economic growth would be distributed more equitably among both workers and owners. In return, the fundamentals of the political-economic system would not be challenged (no revolution). The deal allowed the lower and upper classes to co-operate in solving the challenges facing the American Republic — overcoming the Great Depression, winning the Second World War, and countering the Soviet threat during the Cold War.

It almost goes without saying that there was a racist and xenophobic underside to all this. The co-operating group was mainly native-born white Protestants. African-Americans, Jews, Catholics and foreigners were excluded or heavily discriminated against. Nevertheless, while making such ‘categorical inequalities’ worse, the compact led to a dramatic reduction in overall economic inequality.

The ‘New Deal Coalition’ which ruled the US from 1932 to the late 1960s did so well that the business community, opposed to its policies at first, came to accept them in the post-war years. As the historian Kim Phillips-Fein wrote in Invisible Hands (2010):
Many managers and stockholders [made] peace with the liberal order that had emerged. They began to bargain regularly with the labour unions at their companies. They advocated the use of fiscal policy and government action to help the nation to cope with economic downturns. They accepted the idea that the state might have some role to play in guiding economic life.

When Barry Goldwater campaigned on a pro-business, anti-union and anti-big government platform in the 1964 presidential elections, he couldn’t win any lasting support from the corporate community. The conservatives had to wait another 16 years for their triumph.

But by the late 1970s, a new generation of political and business leaders had come to power. To them the revolutionary situation of 1919-21 was just history. In this they were similar to the French aristocrats on the eve of the French Revolution, who did not see that their actions could bring down the Ancien Régime — the last great social breakdown, the Fronde, being so far in the past.

The US elites, similarly, took the smooth functioning of the political-economic system for granted. The only problem, as they saw it, was that they weren’t being adequately compensated for their efforts. Feelings of dissatisfaction ran high during the Bear Market of 1973—82, when capital returns took a particular beating. The high inflation of that decade ate into inherited wealth. A fortune of $2 billion in 1982 was a third smaller, when expressed in inflation-adjusted dollars, than $1 billion in 1962, and only a sixth of $1 billion in 1912. All these factors contributed to the reversal of the late 1970s.

It is no coincidence that the life of Communism (from the October Revolution in Russia in 1917 to the fall of the Berlin Wall in 1989) coincides almost perfectly with the Great Compression era. The Red Scares of, firstly, 1919—21 and then 1947—57 suggest that US elites took the Soviet threat quite seriously. More generally, the Soviet Union, especially in its early years, aggressively promoted an ideology that was highly threatening to the political-economic system favoured by the US elites. Reforms that ensured an equitable distribution of the fruits of economic growth turned out to be a highly effective counter to the lure of Bolshevism.

Nevertheless, when Communism collapsed, its significance was seriously misread. It’s true that the Soviet economy could not compete with a system based on free markets plus policies and norms that promoted equity. Yet the fall of the Soviet Union was interpreted as a vindication of free markets, period. The triumphalist, heady atmosphere of the 1990s was highly conducive to the spread of Ayn Randism and other individualist ideologies. The unwritten social contract that had emerged during the New Deal and braved the challenges of the Second World War had faded from memory.

What, then, explains the rapid growth of top fortunes in the US over the past 30 years? Why did the wages of unskilled workers stagnate or decline? What accounts for the bitterness of election rhetoric in the US, the growing legislative gridlock, the rampant political polarisation? My answer is that all of these trends are part of a complex and interlocking system. I don’t just mean that everything affects everything else; that would be vacuous. Rather, that cliodynamic theory can tell us specifically how demographic, economic and cultural variables relate to one another, and how their interactions generate social change. Cliodynamics also explains why historical reversals in such diverse areas as economics and culture happen at roughly similar times. The theory of secular cycles was developed using data from historical societies, but it looks like it can provide answers to questions about our own society.

Our society, like all previous complex societies, is on a rollercoaster. Impersonal social forces bring us to the top; then comes the inevitable plunge. But the descent is not inevitable. Ours is the first society that can perceive how those forces operate, even if dimly. This means that we can avoid the worst — perhaps by switching to a less harrowing track, perhaps by redesigning the rollercoaster altogether.

Three years ago I published a short article in the science journalNature. I pointed out that several leading indicators of political instability look set to peak around 2020. In other words, we are rapidly approaching a historical cusp, at which the US will be particularly vulnerable to violent upheaval. This prediction is not a ‘prophecy’. I don’t believe that disaster is pre-ordained, no matter what we do. On the contrary, if we understand the causes, we have a chance to prevent it from happening. But the first thing we will have to do is reverse the trend of ever-growing inequality.

Correction, Feb 13, 2013: When first published, this article misidentified Michael Bloomberg, the mayor of New York City, as an inheritor of a large fortune. In fact he amassed most of his wealth himself.

7 February 2013

The Thirsty West: What Happens in Vegas Doesn’t Stay in Vegas (Slate)

Even Sin City’s attempts to conserve water are wasteful.

By 

MARCH 18 2014 3:24 PM

Lake Mead

For the first time since the construction of the Hoover Dam, water levels in Lake Mead are being intentionally lowered due to the ongoing drought. The result is striking. 

Photo by Eric Holthaus

LAS VEGAS—It’s no secret that the West is running out of water.

Perhaps the best evidence of this problem lies in stark juxtaposition across a stretch of desert surrounding Las Vegas.

As my wife and I planned our route from Tucson, Ariz., to California for the#thirstywest Slate series, there were a couple of stopovers I wanted to make along the way. This short drive was one of them.

Within the span of a single afternoon, it’s possible to witness the past, present, and future of water issues in the West. We accomplished this by driving past the Hoover Dam, through Las Vegas, and on into California via Death Valley.

First, the past:

The Hoover Dam was the biggest civil engineering project in U.S. history, famously constructed in the midst of the Great Depression to tame the Colorado River, provide electricity, and create Lake Mead, the largest reservoir in the country. Now, climate change is starting to make it obsolete.

Lake Mead provides 90 percent of the water to the once-again booming city of Las Vegas, as well as indirectly to Phoenix, Tucson, Los Angeles, and agricultural areas downstream via diversions from the Colorado River. As the result of an ongoing multiyear drought, this giant lake is now approaching the lowest water levels since its construction.

When we saw it for the first time, we gasped.

The sight of so much water in the middle of a desert is in itself brain-twisting, but to see the bright-white “bathtub ring” marking the lake’s historic high-water mark more than 100 feet above current levels, contrasted with boats merrily speeding around on the dwindling reservoir, was nearly too much to take. It was a sharp reminder that despite building dams, aqueducts, and other super-human feats, water in the desert is inherently temporary. We stayed only a few minutes.

The last time water levels were this low, in 2010, federal officials contemplated worst-case scenarios of forced cuts to Las Vegas—of both electricity and water. It didn’t happen then, but the drought this time around is worse.

The lake is now expected to reach a new record low of 1,080 feet by April 2015 and to cross the first trigger for downstream water cutbacks at 1,075 feet shortly thereafter. By summer 2015, the water supply to Las Vegas itself could be affected if an $817 million tunnel project—currently months behind schedule—isn’t yet completed.That project, conceived as a way to extend Lake Mead’s usefulness in the face of climate change, is designed to suck water from the lake all the way to the very bottom—a point long after even the turbines of Hoover Dam would have to shut down, possibly for good.

The new tunnel can’t be finished fast enough. As the magnitude of the current drought started to hit home, construction of an impromptu tunnel designed to buy the larger project a few months of time was approvedlate last year. Officials described the newest tunneling project as an “emergency meant to avoid an emergency.”

It all has the feel of a patient on life support, with a spaghetti of IV lines coming out of both arms. The morbidly curious can follow the daily level of Lake Mead (down another 1.7 inches Monday), via the U.S. Bureau of Reclamation website. Which brings us to Las Vegas today.

A city built on sin can add another to its list: water.

The driest city in America still uses more water per capita than just about any other city in the country. This despite years of steady efficiency improvements and the resounding success of its “cash for grass” program that pays residents for each square foot of lawn they rip out and replace with rocks. Front lawns are now illegal in Las Vegas, yet verdant golf courses are still commonplace. About 70 percent of the city’s nearly maxed-out water diversion from Lake Mead still goes to landscaping.

Don’t get me wrong: The city has made major improvements in water efficiency, using about 40 percent less water per person over the past 25 years or so. The problem is the city’s population has tripled over that same time, and total water usage is up (though down from its peak about a decade ago—an improvement due at least partially to the economic downturn). It’s like a one-ton man patting himself on the back for losing 400 pounds. Great news, but there’s still a long way to go.

Environmental groups have taken the city to task for its water-wasting ways. In the most egregious cases, they’re winning. But the city isn’t going down without a fight. The city’s longtime water czar, known for her “whatever it takes” strategy in gobbling up new water rights statewide rather than focusing on efficiency at home, has recently retired. Now the city has rubber-stamped her handpicked successor. Here’s one alarming plan still under consideration, via the Las Vegas Review-Journal:

The biggest and most controversial project on the table is the authority’s decades-old plan to siphon groundwater from four rural valleys in eastern Nevada and send it to Las Vegas through a pipeline network expected to cost as much as $15 billion.

The idea has drawn loud opposition—and ongoing legal challenges—from critics who complain that it will cost too much, ravage the environment and fail to deliver as much water as authority officials promise.

Entsminger has done a great deal of work on behalf of what the agency calls its “in-state project,” and he said Tuesday that he has no plans to kill it, though he views it as “absolutely a Plan B.” If the water keeps dropping in Lake Mead, source for about 90 percent of the valley’s supply, the authority will have little choice but to pursue a backup source separate from the Colorado River, he said.

Getting a city built on excess to live within the limits dictated by climate and common sense is predictably no easy task. With water rates far lower than Santa Fe, N.M., orTucson and a strong libertarian streak, you end up with crazy things like a LEED-certified casino that is also the largest building in the United States. Sustainability here is a desert mirage.

As High Country News’ Jonathan Thompson explains, in Las Vegas, the mantra seems to be: “Only by consuming more … can we consume less.” He continues:

The result is what I call the Vegas paradox. A 2010 survey found that new homes used an average of 115,000 gallons annually, while pre-2003 homes used 185,000 gallons. … That means that, under current regulations, developers will have to keep building and building in order for the Water Authority to succeed in reducing per capita water-use to 199 gallons by 2035. The more the place grows, in other words, the more sustainable it appears.

For perspective, that goal of 199 gallons per person per day by 2035 is twice California’s current statewide average water consumption. One of the best in the West, San Francisco, uses less than a quarter of the water per person as Vegas—just 49 gallons per person per day.

In this case, what happens in Vegas doesn’t stay in Vegas. The city’s wastewater is pumped back into the Colorado River via the historically dry Las Vegas Washstreambed, now a lush oasis thanks to all that residential effluent. The less water Las Vegas puts back into the river, the less there is for the more populous states downstream—Arizona and California.

This year’s drought could be the catalyst for a new legal framework among the states that share that river’s water supply. Rogue irrigation districts have been testing legal limits, attempting to coax a bit more agricultural production out of the dwindling Colorado. If the drought lingers past current predictions, causing Lake Mead to fall further into uncharted territory, the cutbacks won’t be felt equally.

The New York Times has an explainer:

The labyrinthine rules by which the seven Colorado states share the river’s water are rife with potential points of conflict. And while some states have made huge strides in conserving water—and even reducing the amount they consume—they have yet to chart a united path through shortages that could last years or even decades.

Life in the desert is a gamble. But there’s only so much more time remaining before Mother Nature forces Vegas’ hand. Even money can’t buy water when there’s not enough to go around.

While exiting the city on Blue Diamond Road, we ran a gantlet of brand-new subdivisions, many with signs touting gargantuan square footage and four-car garages. This part of the drive was a little like opening up the front door one morning and having a real-live fire-breathing dragon calmly staring back at you. It simply should not be.

In my next part of the Thirsty West series, we arrive in Death Valley—one of the few parts of California that’s technically not in an extreme drought right now.

This article is part of Future Tense, a collaboration among Arizona State University, the New America Foundation, and SlateFuture Tense explores the ways emerging technologies affect society, policy, and culture. To read more, visit the Future Tense blog and the Future Tense home page. You can also follow us on Twitter.

Eric Holthaus is a meteorologist who writes about weather and climate for Slate’s Future Tense. Follow him on Twitter.

Elegy for a Country’s Seasons (New York Review of Books)

Zadie SmithAPRIL 3, 2014 ISSUE

smith_1-040314.jpg

Wyatt Gallery: Displaced Home in Marsh, Midland Beach, Staten Island, ­November 2012; from the book #Sandy: Seen Through the iPhones of Acclaimed Photographers, to be published by Daylight in September. ­Gallery’s photograph also appears in the exhibition ‘Rising Waters,’ on view at the ­Museum of the City of New York until April 6, 2014. For more on the exhibition, see Michael Greenberg’s review on the NYRgallery blog,www.nybooks.com/gallery.

There is the scientific and ideological language for what is happening to the weather, but there are hardly any intimate words. Is that surprising? People in mourning tend to use euphemism; likewise the guilty and ashamed. The most melancholy of all the euphemisms: “The new normal.” “It’s the new normal,” I think, as a beloved pear tree, half-drowned, loses its grip on the earth and falls over. The train line to Cornwall washes away—the new normal. We can’t even say the word “abnormal” to each other out loud: it reminds us of what came before. Better to forget what once was normal, the way season followed season, with a temperate charm only the poets appreciated.

What “used to be” is painful to remember. Forcing the spike of an unlit firework into the cold, dry ground. Admiring the frost on the holly berries, en route to school. Taking a long, restorative walk on Boxing Day in the winter glare. Whole football pitches crunching underfoot. A bit of sun on Pancake Day; a little more for the Grand National. Chilly April showers, Wimbledon warmth. July weddings that could trust in fine weather. The distinct possibility of a Glastonbury sunburn. At least, we say to each other, at least August is still reliably ablaze—in Cornwall if not at carnival. And it’s nice that the Scots can take a little more heat with them when they pack up and leave.

Maybe we will get used to this new England, and—like the very young and recently migrated—take it for granted that April is the time for shorts and sandals, or that the New Year traditionally announces itself with a biblical flood. They say there will be butterflies appearing in new areas, and birds visiting earlier and leaving later—perhaps that will be interesting, and new, and not, necessarily, worse. Maybe we are misremembering the past! The Thames hasn’t frozen over for generations, and the dream of a White Christmas is only a collective Dickensian delusion. Besides, wasn’t it always a wet country?

It’s amazing the side roads you can will yourself down to avoid the four-lane motorway ahead. England was never as wet as either its famous novels suggest or our American cousins presume. The weather has changed, is changing, and with it so many seemingly small things—quite apart from train tracks and houses, livelihoods and actual lives—are being lost. It was easy to assume, for example, that we would always be able to easily find a hedgehog in some corner of a London garden, pick it up in cupped hands, and unfurl it for our children—or go on a picnic and watch fat bumblebees crawling over the mouth of an open jam jar. Every country has its own version of this local sadness. (And every country has its version of our arguments, when it comes to causation. Climate change or cars? Climate change or cell phone sites?) You’re not meant to mention the minor losses, they don’t seem worth mentioning—not when compared to the visions of apocalypse conjured by climate scientists and movie directors. And then there are all those people who believe that nothing much is happening at all.

Although many harsh words are said about the childlike response of the public to the coming emergency, the response doesn’t seem to me very surprising, either. It’s hard to keep apocalypse consistently in mind, especially if you want to get out of bed in the morning. What’s missing from the account is how much of our reaction is emotional. If it weren’t, the whole landscape of debate would be different. We can easily imagine, for example, a world in which the deniers were not deniers at all, but simple ruthless pragmatists, the kind of people who say: “I understand very well what’s coming, but I am not concerned with my grandchildren; I am concerned with myself, my shareholders, and the Chinese competition.” And there are indeed a few who say this, but not as many as it might be reasonable to expect.

Another response that would seem natural aligns a deep religious feeling with environmental concern, for those who consider the land a beauteous gift of the Lord should, surely, rationally, be among the most keen to protect it. There are a few of these knocking around, too, but again, not half as many as I would have assumed. Instead the evidence is to be “believed” or “denied” as if the scientific papers are so many Lutheran creeds pinned to a door. In America, a curious loophole has even been discovered in God’s creation, concerning hierarchy. It’s argued that because He placed humans above “things”—above animals and plants and the ocean—we can, with a clean conscience, let all those things go to hell. (In England, traditional Christian love of the land has been more easily converted into environmental consciousness, notably among the country aristocrats who own so much of it.)

But I don’t think we have made matters of science into questions of belief out of sheer stupidity. Belief usually has an emotional component; it’s desire, disguised. Of course, on the part of our leaders much of the politicization is cynical bad faith, and economically motivated, but down here on the ground, the desire for innocence is what’s driving us. For both “sides” are full of guilt, full of self-disgust—what Martin Amis once called “species shame”—and we project it outward. This is what fuels the petty fury of our debates, even in the midst of crisis.

During Superstorm Sandy, I climbed down fifteen floors, several months pregnant, in the darkness, just so I could get a Wi-Fi signal and e-mail a climate-change-denying acquaintance with this fresh evidence of his idiocy. And it only takes a polar vortex—a pocket of cold air that may lower temperatures—for one’s inbox to fill up with gleeful counternarratives from right-leaning relatives—as if this were all a game, and the only thing hanging in the balance is whether or not you or your crazy uncle in Florida are “alarmists” or “realists.” Meanwhile, in Jamaica, where Sandy first made landfall, the ever more frequent tropical depressions, storms, hurricanes, droughts, and landslides do not fall, for Jamaicans, in the category of ontological argument.

Sing an elegy for the washed away! For the cycles of life, for the saltwater marshes, the houses, the humans—whole islands of humans. Going, going, gone! But not quite yet. The apocalypse is always usefully cast into the future—unless you happen to live in Mauritius, or Jamaica, or the many other perilous spots. According to recent reports, “if emissions of global greenhouse gases remain unchanged,” things could begin to get truly serious around 2050, just in time for the seventh birthday party of my granddaughter. (The grandchildren of the future are frequently evoked in elegies of this kind.) Sometimes the global, repetitive nature of this elegy is so exhaustively sad—and so divorced from any attempts at meaningful action—that you can’t fail to detect in the elegists a fatalist liberal consciousness that has, when you get right down to it, as much of a perverse desire for the apocalypse as the evangelicals we supposedly scorn.

Recently it’s been possible to see both sides leaning in a little closer to hear the optimistic arguments of the technocrats. Some sleight of hand has occurred by which we begin to move from talk of combating and reversing to discussion of carbon capture and storage, and higher sea walls, and generators on the roof, and battening down the hatches. Both sides meet in failure. They say to each other: “Yes, perhaps we should have had the argument differently, some time ago, but now it is too late, now we must work with what we have.”

This will no doubt look very peculiar to my seven-year-old granddaughter. I don’t expect she will forgive me, but it might be useful for her to get a glimpse into the mindset, if only for the purposes of comprehension. What shall I tell her? Her teachers will already have explained that what was happening to the weather, in 2014, was an inconvenient truth, financially, politically—but that’s perfectly obvious, even now. A global movement of the people might have forced it onto the political agenda, no matter the cost. What she will want to know is why this movement took so long to materialize. So I might say to her, look: the thing you have to appreciate is that we’d just been through a century of relativism and deconstruction, in which we were informed that most of our fondest-held principles were either uncertain or simple wishful thinking, and in many areas of our lives we had already been asked to accept that nothing is essential and everything changes—and this had taken the fight out of us somewhat.

And then also it’s important to remember that the necessary conditions of our lives—those things that seem to us unavoidably to be the case—are not only debated by physicists and philosophers but exist, irrationally, in the minds of the rest of us, beneath contempt intellectually, perhaps, but we still experience them as permanent facts. The climate was one of those facts. We did not think it could change. That is, we always knew we could do a great deal of damage to this planet, but even the most hubristic among us had not imagined we would ever be able to fundamentally change its rhythms and character, just as a child who has screamed all day at her father still does not expect to see him lie down on the kitchen floor and weep. Now, do you think that’ll get me off the hook with my (slightly tiresome and judgmental) future granddaughter? I worry.

Oh, what have we done! It’s a biblical question, and we do not seem able to pull ourselves out of its familiar—essentially religious—cycle of shame, denial, and self-flagellation. This is why (I shall tell my granddaughter) the apocalyptic scenarios did not help—the terrible truth is that we had a profound, historical attraction to apocalypse. In the end, the only thing that could create the necessary traction in our minds was the intimate loss of the things we loved. Like when the seasons changed in our beloved little island, or when the lights went out on the fifteenth floor, or the day I went into an Italian garden in early July, with its owner, a woman in her eighties, and upon seeing the scorched yellow earth and withered roses, and hearing what only the really old people will confess—in all my years I’ve never seen anything like it—I found my mind finally beginning to turn from the elegiac what have we done to the practical what can we do?

Finnish Education Chief: ‘We Created a School System Based on Equality’ (The Atlantic)

An interview with the country’s minister of education, Krista Kiuru

MAR 17 2014, 10:09 AM ET

hydropeek/Flickr

Finnish education often seems paradoxical to outside observers because it appears to break a lot of the rules we take for granted. Finnish children don’t begin school until age 7. They have more recess, shorter school hours than many U.S. children do (nearly 300 fewer hours per year in elementary school), and the lightest homework load of any industrialized nation. There are no gifted programs, almost no private schools, and no high-stakes national standardized tests.

Yet over the past decade Finland has consistently performed among the top nations on the Programme for International Student Assessment (PISA), a standardized test given to 15-year olds in 65 nations and territories around the world. Finland’s school children didn’t always excel. Finland built its excellent, efficient, and equitable educational system in a few decades from scratch, and the concept guiding almost every educational reform has been equity.  The Finnish paradox is that by focusing on the bigger picture for all, Finland has succeeded at fostering the individual potential of most every child.

I recently accompanied Krista Kiuru, Finland’s minister of education and science, when she visited the Eliot K-8 Innovation School in Boston, and asked her what Finland is doing that we could learn from.


I visited four Finnish schools while researching my book Parenting Without Borders. While there, I frequently heard a saying: “We can’t afford to waste a brain.” It was clear that children were regarded as one of Finland’s most precious resources. You invest significantly in providing the basic resources so that all children may prosper. How do these notions undergird your educational system?

We used to have a system which was really unequal. My parents never had a real possibility to study and have a higher education. We decided in the 1960s that we would provide a free quality education to all. Even universities are free of charge. Equal means that we support everyone and we’re not going to waste anyone’s skills. We don’t know what our kids will turn out like—we can’t know if one first-grader will become a famous composer, or another a famous scientist. Regardless of a person’s gender, background, or social welfare status, everyone should have an equal chance to make the most of their skills.  It’s important because we are raising the potential of the entire human capital in Finland.  Even if we don’t have oil or minerals or any other natural resources, well, we think human capital is also a valuable resource.

How well do you think Finland’s educational system, one based more squarely on equity rather than high achievement, is working?

We created a school system based on equality to make sure we can develop everyone’s potential. Now we can see how well it’s been working.  Last year the OECD tested adults from 24 countries measuring the skill levels of adults aged 16-65, on a survey called the PIAAC (Programme for International Assessment of Adult Competencies), which tests skills in literacy, numeracy, and problem solving in technology-rich environments. Finland scored at or near the top on all measures. But there were differences between age groups.  The test showed that all younger Finns who had had a chance to go to compulsory basic school after the reforms had extremely high knowledge; those who were older, and who were educated before the reforms, had average know-how. So, our educational system is creating people who have extremely good skills and strong know-how—a know-how which is created by investing into education. We have small class sizes and everyone is put in the same class, but we support struggling students more than others, because those individuals need more help. This helps us to be able to make sure we can use/develop everyone’s skills and potential.

I remember being struck by how many vocational or hands-on classes (home economics, art, technology, and so forth) were available to students at every Finnish school I visited.  At one secondary school I visited, kids were cooking breakfast; at another, I saw that all the kids had learned how to sew their own bathing suits.  More than one teacher remarked, “It’s important for students to have different activities to do during the day.” And there seems to be no stigma about vocational education. Is this attitude true of all schools in Finland?

Yes, we definitely believe that for young people handcrafts, cooking, creative pursuits, and sports, are all important. We believe these help young people benefit more from the skills they’re learning in school.

Do you think that this takes time away from academics?

Academics isn’t all kids need. Kids need so much more. School should be where we teach the meaning of life; where kids learn they are needed; where they can learn community skills. We like to think that school is also important for developing a good self-image, a strong sensitivity to other people’s feelings … and understanding it matters to take care of others. We definitely want to incorporate all those things in education.

I also believe that breaking up the school day with different school subjects is very important. We offer a variety of subjects during the school day. We’re also testing out what it’s like to have breaks in the middle of the school day for elementary school students. At a few elementary schools recently we’ve been offering sports, handcrafts, or school clubs during the middle of the school day, rather than just in the morning or after school as we already do. This is to help kids to think of something else, and do something different and more creative during the day.

An American librarian I spoke with, who was a visiting scholar in Finland, was struck by things like the fact that there was no concept of Internet filtering or censorship there. She was struck by how much autonomy was given to children as well as to teachers. At the same time, she noticed how much support teachers in Finland get. She visited one first-grade classroom that was taught by a relatively new teacher,  and seven adults were standing in the back of the room watching the teacher: the master teacher, a specialty subject teacher from her teaching university, her advisor from university, and a couple of other student teachers. Right after the class, they got together and talked about how the lesson went. This sort of observation/debriefing seemed to be quite common. Finland is also well known for investing heavily in continuous professional development. Can you tell me more about this combination of independence and support?

Teachers have a lot of autonomy. They are highly educated–they all have master’s degrees and becoming a teacher is highly competitive. We believe we have to have highly educated teachers, because then we can trust our teachers and know they are doing good work. They do have to follow the national curriculum, although we do have local curriculums as well. But we think that we’ve been able to create good results due to our national, universal curriculum.

We don’t test our teachers or ask them to prove their knowledge. But it’s true that we do invest in a lot of additional teacher training even after they become teachers.

We also trust in our pupils. Of course we give them exams and tests so that we know how they are progressing but we don’t test them at the national level. We believe in our schools because we consider all schools equal. We don’t school shop in Finland and we don’t have to think about which area to live in to go to a good school.

In Finland we are starting to have some issues … in some suburban schools with more immigrants or higher unemployment, but we support those schools by investing more in them, in the struggling schools.

But you know, money doesn’t make for a better education necessarily. We don’t believe that spending on a particular school will make any one of them better so much as focusing on the content of what we do and giving children individual support.

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay (IO9)

17 March 2014

Vincze Miklós

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

People have been drawn to stories about exotic animals throughout our history. The further you go back in that history, the less likely those stories were accurate. Here is a gorgeous compendium of illustrations showing how people imagined real animals they had only heard about.

Crocodiles from Liber Floridus (Book of Flowers), an encyclopedia by Lambert, Canon of Saint-Omer between 1090 and 1120.

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

(via Erik Kwakkel)

Animals from the Rochester Bestiary, c. 1225-1250

A crocodile:

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

Elephants:

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

Lions and other animals:

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

A lion:

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

A colorful panther:

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

A crocodile from the Northumberland Bestiary, fol. 49v, mid-1250s

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

An elephant from the 13th century, by Guillaume le Clerc

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

An elephant from Italy, c. 1440

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

(via British Library)

Lions from the Ashmole Bestiary (f.10v), 1511

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

A whale from Adriaen Coenen’s Visboek (Fish Book), 1560s

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

(via Koninklijke Bibliotheek)

An elephant and a giraffe by Noè Bianco, 1568

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

(via NYPL Digital Library)

The History of Four-Booted Beasts and Serpents, by Edward Topsell, 1658

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

A beaver:

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

A dromedary:

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

(via University of Houston Digital Library)

A history of the Earth and animated nature, by Oliver Goldsmith, 1825

A hippo:

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

Seals:

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

Lions:

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

(via Biodiversity Heritage Library)

A striped hyena, by Aloys Zötl, 1831

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

Gibbons, by Aloys Zötl, 1833

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

The Hoolock Gibbons, by Aloys Zötl, 1835

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

The Cheetah, by Aloys Zötl, 1837

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

A rhinoceros, by Aloys Zötl, 1861

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

A sea turtle, by Aloys Zötl, 1867

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

A walrus, by Aloys Zötl, 1879

How Europeans Imagined Exotic Animals Centuries Ago, Based on Hearsay

________

(via Wikimedia Commons 1 –2 and British Library)

You should be ashamed — or maybe not (Science Daily)

Date: March 13, 2014

Source: University of California – Santa Barbara

Summary: Shame on you. These three simple words can temporarily — or, when used too often, permanently — destroy an individual’s sense of value and self-worth.

Shame on you. These three simple words can temporarily — or, when used too often, permanently — destroy an individual’s sense of value and self-worth. Credit: © Mitarart / Fotolia

Shame on you. These three simple words can temporarily — or, when used too often, permanently — destroy an individual’s sense of value and self-worth.

“In modernity, shame is the most obstructed and hidden emotion, and therefore the most destructive,” said Thomas Scheff, professor emeritus of sociology at UC Santa Barbara. “Emotions are like breathing — they cause trouble only when obstructed.”

When hidden, he continued, shame causes serious struggles not only for individuals but also for groups. In an article published in the current issue of the journal Cultural Sociology, Scheff examines the ubiquity of hidden shame and suggests it may be one of the keys to understanding contemporary society.

According to Scheff a society that fosters individualism (ours, for example) provides a ripe breeding ground for the emotion of shame because people are encouraged to “go it alone, no matter the cost to relationships,” he said. “People learn to act as if they were complete in themselves and independent of others. This feature has constructive and creative sides, but it has at least two other implications: alienation and the hiding of shame.”

Scheff noted that while shame is no less prevalent now than in previous years or decades or generations, it is more hidden. “Shame is a biological entity like other emotions, but people are more ashamed of it than they are of the others,” he said. “The hiding of emotions is more widespread in modern societies than in traditional ones.”

In exploring the connection between shame and aggression, Scheff cites research conducted by sociologist Neil Websdale, author of “Familicidal Hearts: The Emotional Styles of 211 Killers.” Familicide, the act of one spouse killing the other as well as their children and often himself or herself, stems from unacknowledged shame, Scheff said. “It’s about humiliation and hiding behind aggression or violence,” he explained. “The most interesting thing about the study is there’s a group of non-angry people — a minority — who lose their job and feel humiliated. So they pretend they’re going to work every day but are really planning the killing. Websdale describes them as ‘civic respectable.’

“Our society — our civilization — is civic respectable,” Scheff continued. “You’re not to be angry and you’re not to be ashamed.”

The problem with that kind of thinking, however, is that shame is, in reality, a very useful emotion. “Shame is the basis of morality,” Scheff said. “You can’t have a moral society without shame. It provides the weight for morality. There are a hundred things in your head about what you should or shouldn’t do, but the one that hits you is the one that has shame behind it.”

Scheff suggests that shame — or the reaction to it — can manifest itself in larger acts of aggression, such as wars and other military conflicts. “Especially for leaders, both shame and anger are carefully hidden behind a veil of rationality,” he writes in the article. “The Bush administration may have been deeply embarrassed by the 9/11 attack during their watch and their helplessness to punish the attackers. The invasion of Iraq on the basis of false premises might have served to hide their shame behind anger and aggression.”

While some people are more susceptible to the effects of shame, for others the emotion is more manageable. “Those lucky rascals who as children were treated with sympathetic attention from at least one of their caregivers feel more pride — accepted as they are — and, therefore, less shame and rejection,” Scheff said.

So how does one resolve hidden shame? The answer, according to Scheff, is to have a good laugh. “That is, laugh at yourself or at the universe or at your circumstances, but not at other people. Most of the laughing we do in comedy is good. No matter the actors, we are really laughing at our own selves that we see in their foolishness.”

Journal Reference:

  1. T. Scheff. The Ubiquity of Hidden Shame in ModernityCultural Sociology, 2014; DOI: 10.1177/1749975513507244

Brasil se preocupa com invasão de barrabravas argentinos na Copa (OESP)

Autoridades dos dois países se reuniram na terça e selaram acordo de cooperação

20 de março de 2014

Ariel Palacios – O Estado de S. Paulo

BUENOS AIRES – Os barrabravas, os violentos torcedores argentinos, estão se preparando para assistir à Copa do Mundo. O planejamento da viagem ao Brasil é bastante detalhado – passa até por contatos com líderes de torcida do futebol gaúcho, pois a ideia é fazer Porto Alegre de quartel-general. Preocupados, os governos de Brasil e Argentina firmaram acordo de cooperação para tentar controlar esses torcedores.

Torcedores do Boca enfrentam a polícia - Marcos Brindicci/Reuters

Marcos Brindicci/Reuters. Torcedores do Boca enfrentam a polícia

O plano dos barrabravas prevê até o que farão aqueles que não conseguirem ingressos. Eles ficariam do lado de fora dos estádios, fazendo o que os argentinos chamam de “el aguante”, expressão usada para definir o apoio fanático e apaixonado de uma torcida por seu time.

No fim do mês, uma comitiva com dez torcedores argentinos viajará a Porto Alegre para se reunir com contatos locais – entre eles José Hierro Martins, da Guarda Popular, do Internacional – para preparar o desembarque das organizadas argentinas na capital gaúcha, de onde partiriam para o resto do País. O grupo está organizando o financiamento da viagem desde 2011.

A seleção argentina está no Grupo F da Copa do Mundo e jogará no Rio de Janeiro em 15 de junho, contra a Bósnia; em Belo Horizonte no dia 21, contra o Irã; e no dia 25 em Porto Alegre, contra a Nigéria.

Diversas estimativas indicam que ao redor de 650 barrabravas de 38 clubes argentinos viajarão ao Brasil, em dez ônibus, aumento de 150% em relação ao contingente que foi à África do Sul em 2010. São integrantes das Torcidas Unidas Argentinas, entidade conhecida pela sigla HUA, que se apresenta como uma ONG para divulgar a “cultura do futebol”.

Em 2010, os barrabravas contavam com lideranças fortes, que serviam de interlocutores com diversos integrantes do governo da presidente Cristina Kirchner que lhes conseguiam financiamentos. Atualmente, eles não possuem um comando único e recebem apoio econômico tanto de aliados da Casa Rosada como da oposição.

Analistas esportivos consultados pelo Estado sustentam que esse cenário de “atomização’’ das lideranças e vínculos complicou nos últimos anos o controle da violência dos barrabravas por parte das forças de segurança. No entanto, as autoridades argentinas prometem fiscalizar estes grupos violentos que viajarão ao Brasil. Os críticos ironizam, afirmando que o governo Kirchner nem sequer consegue controlá-los dentro do próprio país.

O município de Quilmes, na Grande Buenos Aires, foi o cenário de confrontos de barrabravas na semana passada. Os torcedores do Quilmes, famosos por sua violência, espancaram os rivais do All Boys com pás, além de desferir punhaladas. Segundo o deputado Fernando Pérez, da União Cívica Radical (UCR), “a Copa acelera as disputas porque os barrabravas se desesperam por financiar suas viagens ao Brasil”. Estimativas das agências de turismo indicam que, no total, 15 mil argentinos viajarão ao Brasil para acompanhar a Copa.

ACORDO

Na terça-feira, autoridades dos dois países se reuniram na embaixada da Argentina, em Brasília, e selaram acordo de cooperação. Por ele, a Argentina vai fornecer ao Brasil todas as informações solicitadas nas área de segurança e migração. O acordo prevê o reforço na segurança nas fronteiras entre os dois países. A entrada de torcedores argentinos no território brasileiro vai merecer controle especial.

A reunião em Brasília teve a presença também de policiais dos dois países, dirigentes do futebol argentino e representantes dos comitês do Rio, de Belo Horizonte e Porto Alegre, as cidades que receberão a seleção de Messi na primeira fase da Copa do Mundo.

MORTES E NEGÓCIOS

Desde o primeiro ataque protagonizado por barrabravas com morte na Argentina, em 1924, até o ano passado haviam morrido 230 pessoas em confrontos violentos e milhares ficaram feridas. As brigas, que até os anos 80 eram resolvidas com socos e pontapés, nos últimos 30 anos foram definidas à base de armas de fogo. Nestes 90 anos a Justiça argentina foi costumeiramente omissa, já que somente pouco mais de três dezenas de pessoas foram condenadas por essas mortes entre 1924 e 2013.

Ao contrário de outros países, onde muitas torcidas organizadas mais violentas estão vinculadas a grupos extremistas, como skinheads e neonazistas, na Argentina os barrabravas possuem fortes laços políticos e econômicos com ministros, senadores, deputados, governadores, prefeitos e vereadores, para os quais trabalham organizando comícios, como cabos eleitorais e seguranças.

Trying to assemble an “Anthropocene Curriculum” (environmentalhumanities.org)

Posted on Mar 16, 2014

This event is to be held
November 14-22, 2014
Haus der Kulturen der Welt (HKW), Berlin

The Anthropocene—or however you choose to name the current era of environmental transition on a planetary scale—is a more-than-real challenge for human civilization. A crucial aspect of this challenge is to ferret out and create new forms of collectives. First of all, there is a need for a wide array of habitual collectives to bring the technically empowered, and maybe out-of-control human agency into closer awareness of and care for this capacious non-site of immersion, formerly known as “Nature”. The Anthropocene discloses the immediate resonance between our actions—but also our omissions and failures—with the entire geosphere, so why not perceive them as one and the same collage, always changing and shifting in its pattern but staying true to their reciprocal dependency? Second, there is the challenge to re-create collectives in a more classical sense: assemblages of mutual attention and co-workmanship amongst the billions of different “anthropoi” who are and will be dwelling on this planet.

The project

This applies foremost to where critical knowledge is formed, shared and raised: the university. Within the confines of knowledge production and dissemination in higher education, the “Anthropocene Curriculum” project proposes an experiment to tackle this challenge and explore creative solutions in relation to it. Developed by the Haus der Kulturen der Welt (HKW) and the Max Planck Institute for the History of Science (MPIWG, both in Berlin, Germany) the “Anthropocene Curriculum” is a central, production-oriented element among a manifold of research-based exhibitions, experimental events, academic and curatorial workshops, as well as an ambitious publication project that comprise the output of the two-year “Anthropocene Project” led by HKW.

The “Anthropocene Curriculum” brings together university teachers from science, humanities, and art and design faculties from across the globe to collaboratively negotiate, develop, and supervise an exemplary curriculum on Anthropocene-relevant topics. Setting the curriculum as a practical goal the task is to creatively develop a mutual understanding of recursive themes and tropes within the confines of Anthropocene research, an emergent field that becomes more integrated and trans-disciplinary along the way. The curriculum itself will be implemented at the “Anthropocene Campus” taking place in November 2014 at HKW. Cast into the form of an autumn session helding a set of exemplary courses, a total of one hundred international young researchers from academia and civil society will get actively involved into the program, joining the effort by bringing in their own perspectives and expertise.

The immediate aim of this temporary co-learning space on the premises of a cultural institution and embedded within a more expansive situation in the HKW (exhibitions, screenings, artistic events), is to enter a productive discourse—free of university-curricular constraints—on knowledge design and dissemination, on skills and their trainings. As a result of the pre- and postwork of the 9-day event an “Anthropocene Coursebook” will be edited by the participants, ”instructors” and “students” alike. In the end, such cooperation seeks to adequately address the collaborative and educational skills needed to tackle the critical environmental challenges that the Anthropocene poses, challenges that immediately become social, technological, and epistemological on closer examination.

Hence, and on a more general note, the further goal of this ambitious project is to convey a wider grasp as well as epistemic sensibility for the spectra, interplays and metabolisms of elements taking place on and within a planet in transition. This includes efforts in prospectively conjoining the variegated systemic and anthropogenic exchange processes, from the biophysical and geochemical to the cultural, industrial, and virtual. Yet, it also critically reflects on social and aesthetic inputs and the effects that emanate from the general acceptance of a human-nature indivisibility. While this clearly speaks to the heart of the environmental humanities endeavour, such knowledge also implies the potency of design and actively pursues a readjustment of both “knowing” and “doing” within the broader geo-fabric. By incorporating diverse views and materials from different disciplines, by debating and combining them to form cross-disciplinary syllabi, a potent, earth-bound collective might be composed.

To be sure: the courses assembled within this project do not strive for a comprehensive, fully integrated tour d’horizon of the Anthropocene. Instead, they aim for a kaleidoscopic and resourceful approach that emerges from the glaring necessity to build a knowledge base simultaneously broad in its disciplinary perspectives, as well as out-of-the-box in its experimentation. An ideal curriculum informed by and calibrated for the Anthropocene does not teach disciplines, at least not as an end in itself. Working “in silos” certainly has its merits and so does rigorous disciplinary training. Nevertheless, the overall challenge to educate people for living up to the planetary scale of our pending crisis demands different approaches and methods.

Nor does an ideal “Anthropocene Curriculum” unify and equalize everything into a global view of nowhere. Instead, it composes out of localities, drawing connections between local concerns and local knowledge that carries it’s own historical contingencies. It mediates between different contemporary approaches and modes of scientific artistry. It prepares students for what will surely become turbulent times in the interdependency of science, culture, and a habitable planet. Its interdisciplinarity is genuine and rests on necessity. It provides methodical avenues for grappling with the scopes and scales of the Anthropocene predicament.

Moreover, the ever changing role of academia itself is hereby brought into the equation (or rather, multiple equations). Therefore, another central aim of this project is to accentuate the process of constructing and composing a curriculum and to bring this “becoming” to the foreground. Though building a curriculum with a panoramic view on topical, trans-disciplinary knowledge serves in and of itself as an end, the project’s desire is to also develop a self-reflexive discourse, as well as to highlight the uncertainties and humble limitations of scholarly engagement with the planet.

… and its procedures

As a result of general discussions and negotiations that took place since the start of the project in September 2013 on an internal online platform, and building on the presentations given at a midway meeting that took place January 23-24, 2014 at the MPIWG, the 27 participants of the project have now formed themselves into interdisciplinary groups of three or four. Within (but also across) these groups, the current task of each is to start elaborating their chosen topics and prepare materials for the seminars, excursions, exercises, and public lectures that will be presented during the “Anthropocene Campus” in November this year. Utilizing the online platform to mitigate communication procedures, the general discussion on goals and feasibilities of an Anthropocene-adequate knowledge base will continue.

Later this year the online platform will expand to include prospective students, while a public website presenting the compiled materials as well as videos of public presentations will be launched after the “Anthropocene Campus”. This will provide an accessible repository for further realizations of curricula that may be initiated at other places around the globe and added to the website later on. It is also planned to publish an open access edition of an “Anthropocene Coursebook”, consisting of the curriculum topics co-authored by the three tutors and their respective students.

All this is, no doubt, a bold and risky undertaking. Being a magnificent task in inter-disciplinary diplomacy, it challenges the academic folklore of often talking about collaboration but rarely putting it into practice. Here lies the virtue and open possibility of the Berlin “Anthropocene Project”: grounded within a cultural institution, it provides an extra-academic terrain to allow for another standard of exchange to happen. Strictly speaking, the “Anthropocene Curriculum” is a rare opportunity, namely one in which different perspectives may be debated in a frank and straightforward manner and controversial standpoints may be used in a productive way. The challenge here is to be a collective.

You can find more information on the project, the instructors, and the seminars athttp://www.anthropocene-curriculum.org/

Forests Around Chernobyl Aren’t Decaying Properly (Smithsonian Mag)

Fallen trees in Chernobyl’s infamous red forest. (Photo: T.A.Mousseau & A.P. Møller )

It wasn’t just people, animals and trees that were affected by radiation exposure at Chernobyl, but also the decomposers: insects, microbes, and fungi

By Rachel Nuwer

SMITHSONIANMAG.COM
MARCH 14, 2014

Nearly 30 years have passed since the Chernobyl plant exploded and caused an unprecedented nuclear disaster. The effects of that catastrophe, however, are still felt today. Although no people live in the extensive exclusion zones around the epicenter, animals and plants still show signs of radiation poisoning.

Birds around Chernobyl have significantly smaller brains that those living in non-radiation poisoned areas; trees there grow slower; and fewer spiders and insects—including bees, butterflies and grasshoppers—live there. Additionally, game animals such as wild boar caught outside of the exclusion zone—including some bagged as far away as Germany—continue to show abnormal and dangerous levels of radiation.

However, there are even more fundamental issues going on in the environment. According to a new study published in Oecologia, decomposers—organisms such as microbes, fungi and some types of insects that drive the process of decay—have also suffered from the contamination. These creatures are responsible for an essential component of any ecosystem: recycling organic matter back into the soil. Issues with such a basic-level process, the authors of the study think, could have compounding effects for the entire ecosystem.

The team decided to investigate this question in part because of a peculiar field observation. “We have conducted research in Chernobyl since 1991 and have noticed a significant accumulation of litter over time,” the write. Moreover, trees in the infamous Red Forest—an area where all of the pine trees turned a reddish color and then died shortly after the accident—did not seem to be decaying, even 15 to 20 years after the meltdown.

“Apart from a few ants, the dead tree trunks were largely unscathed when we first encountered them,” says Timothy Mousseau, a biologist at the University of South Carolina, Columbia, and lead author of the study. “It was striking, given that in the forests where I live, a fallen tree is mostly sawdust after a decade of lying on the ground.”

Wondering whether that seeming increase in dead leaves on the forest floor and those petrified-looking pine trees were indicative of something larger, Mousseau and his colleagues decided to run some field tests. When they measured leaf litter in different parts of the exclusion zones, they found that the litter layer itself was two to three times thicker in the “hottest” areas of Chernobyl, where radiation poisoning was most intense. But this wasn’t enough to prove that radiation was responsible for this difference.

To confirm their hunch, they created around 600 small mesh bags and stuffed them each with leaves, collected at an uncontaminated site, from one of four different tree species: oak, maple, birch or pine. They took care to ensure that no insects were in the bags at first, and then lined half of them with women’s pantyhose to keep insects from getting in from the outside, unlike the wider mesh-only versions.

Mousseau distributing leaf baggies throughout Chernobyl’s exclusion zones. Photo: Gennadi Milinevsky

Like a decomposer Easter egg hunt, they then scattered the bags in numerous locations throughout the exclusion zone, all of which experienced varying degrees of radiation contamination (including no contamination at all). They left the bags and waited for nearly a year—normally, an ample amount of time for microbes, fungi and insects to make short work of dead organic material, and the pantyhose-lined bags could help them assess whether insects or microbes were mainly responsible for breaking down the leaves.

The results were telling. In the areas with no radiation, 70 to 90 percent of the leaves were gone after a year. But in places where more radiation was present, the leaves retained around 60 percent of their original weight. By comparing the mesh with the panty hose-lined bags, they found that insects play a significant role in getting rid of the leaves, but that the microbes and fungi played a much more important role. Because they had so many bags placed in so many different locations, they were able to statistically control for outside factors such as humidity, temperature and forest and soil type to make sure that there wasn’t anything besides radiation levels impacting the leaves’ decomposition.

“The gist of our results was that the radiation inhibited microbial decomposition of the leaf litter on the top layer of the soil,” Mousseau says. This means that nutrients aren’t being efficiently returned to the soil, he adds, which could be one of the causes behind the slower rates of tree growth surrounding Chernobyl.

Stars mark sites where the researchers put the leaf bags, with colors corresponding to levels of radiation. Photo: Mousseau et al., Oecologia

Other studies have found that the Chernobyl area is at risk of fire, and 27 years’ worth of leaf litter, Mousseau and his colleagues think, would likely make a good fuel source for such a forest fire. This poses a more worrying problem than just environmental destruction: Fires can potentially redistribute radioactive contaminants to places outside of the exclusion zone, Mousseau says. “There is growing concern that there could be a catastrophic fire in the coming years,” he says.

Unfortunately, there’s no obvious solution for the problem at hand, besides the need to keep a stringent eye on the exclusion zone to try to quickly snuff out potential fires that breaks out. The researchers are also collaborating with teams in Japan, to determine whether or not Fukushima is suffering from a similar microbial dead zone.

RELATED CONTENT

Read more: http://www.smithsonianmag.com/science-nature/forests-around-chernobyl-arent-decaying-properly-180950075/#zY3KQvXTxzICrJvC.99

Descolonização do pensamento (Ciência Hoje)

Em entrevista à CH, o antropólogo brasileiro Cláudio Pinheiro analisa a dominação cultural da Europa e dos Estados Unidos sobre os países menos desenvolvidos, como o Brasil, e aponta mudanças que podem levar a uma produção de ideias e conhecimentos multipolarizada.

Por: Henrique Kugler, Ciência Hoje/ RJ

Publicado em 20/03/2014 | Atualizado em 20/03/2014

Descolonização do pensamento

‘Table bay’, tela de Samuel Scott datada de 1730. Na esteira da colonização, países menos desenvolvidos, entre eles o Brasil, importam padrões culturais e estruturas políticas e intelectuais da Europa e dos Estados Unidos.

Sejamos honestos: nós, brasileiros, tornamo-nos praticantes passivos de alguma espécie de mimetismo pós-colonial. Imitamos padrões europeus e estadunidenses em quase tudo – desde detalhes aparentemente banais, como vestimentas que usamos ou músicas que ouvimos; até estruturas políticas ou intelectuais reproduzidas a partir de matrizes do Norte. E a academia não foge à regra. Os autores que lemos, afinal, são quase sempre os clássicos do Velho Mundo.

Nos ventos do século 21, porém, as periferias geopolíticas pedem um mundo multipolarizado – e, cada vez mais, esse movimento configura a nova realidade global. Ainda perdura, no entanto, a clivagem do cenário internacional em dicotomias datadas que reforçam a segregação do mundo em dois hemisférios simbólicos.

Sobre esse instigante tema, Ciência Hoje ouviu o historiador e antropólogo Cláudio Pinheiro, diretor da Sephis, agência holandesa dedicada à formação de quadros intelectuais de países do Sul, agora sediada no Fórum de Ciência e Cultura da Universidade Federal do Rio de Janeiro. Pinheiro denuncia o colonialismo tardio do qual apenas começamos a nos libertar. E, dono de um papo tão pertinente quanto sofisticado, aposta suas fichas nos países austrais como promissores espaços de enunciação política, cultural e intelectual.

É correto afirmar que no Brasil, como em muitos países em desenvolvimento, ainda somos intelectualmente colonizados?

Essa colonização intelectual e acadêmica que vivemos não é uma conversa nova. Sua denúncia sistemática vem dos anos 1960. Mas, agora, a ideia está sendo desenvolvida com muito mais substância e continuidade. Dois anos atrás, veio ao Brasil uma das grandes intelectuais que debate a ideia de Sul: a antropóloga australiana Raewyn Connell. Sabe o que ela disse? “No evento acadêmico do qual participei aqui, as bancas de livros vendiam o mesmo que eu encontraria em um evento acadêmico na Austrália: Pierre Bourdieu, Jürgen Habermas, enfim, os autores clássicos europeus. Mas eu gostaria de ler, na verdade, autores clássicos brasileiros! E também os africanos, os indianos…”

Se o debate já tem quatro décadas, por que essa colonização permanece?

As agendas de pensamento estão muito profundamente ancoradas em conjuntos de teorias, temas, categorias de análise e agendas de financiamento à produção científica que se referem a uma experiência histórica particular, que é a do Atlântico Norte – tanto europeia, quanto norte-americana. É nessas experiências que nós, da periferia, acabamos baseando nosso discurso intelectual sociológico, antropológico, político e historiográfico.

Um dos grandes autores a denunciar isso, nos anos 1990, foi o indiano Dipesh Chakrabarty, da Universidade de Chicago. Ele escreveu um livro, em 2000, chamado Provincializando a Europa [Provincializing Europe, editado pela Princeton University Press, sem tradução para o português]. O argumento básico está no título: a Europa é uma paróquia. Só que essa paróquia se mundializou, a partir de um longo processo histórico associado ao colonialismo. E passamos a acreditar que nela estaria alguma espécie de grande verdade.

Conhecemos mais detalhes sobre a queda da Bastilha do que sobre grandes revoluções africanas

Pense em um estudante de ensino médio. O que ele estuda em história? História europeia. Estudos sobre África entraram para o nosso currículo apenas recentemente, em 2003, por uma medida governamental. Certo: o estudante sabe então sobre Europa e África. O que falta? Falta tudo. Conhecemos mais detalhes sobre a queda da Bastilha do que sobre grandes revoluções africanas. Estas passam completamente ao largo de nosso conhecimento. Como estudar história mundial sem estudar a história da África? Como entender o impacto que teve a diáspora de africanos nas Américas e na própria África? Como isso interferiu, por gerações e séculos, na capacidade africana de recuperar sua economia? Nossa própria forma de datação do tempo é marcada pela experiência europeia. Compreendemos o mundo em termos de história antiga, medieval, moderna e contemporânea. E é nesse trem que nos localizamos: o Brasil passa a existir no mundo a partir da história moderna – durante a expansão europeia.

Com a emergência de novas forças geopolíticas, a exemplo dos BRICs (Brasil, Rússia, Índia, China e África do Sul), essas ‘categorias de análise’ podem ser remodeladas?

Não obstante países como os BRICs sejam mais e mais importantes no cenário político internacional, continuam não sendo donos do próprio arcabouço que define a maneira pela qual se conhece o conhecimento: a forma de datar o tempo, a forma de classificar sociedades, as categorias de compreensão do mundo. Exemplo: se falamos em ‘família’, um aluno do ensino médio pensa em pai, mãe, avós, tios, filhos, netos. Em muitas sociedades é assim. Mas em muitas outras, não. Para povos nativos brasileiros ou sociedades asiáticas, por exemplo, a noção de família engloba relações mais amplas, que podem incluir até animais.

O conceito ocidental baseado na experiência europeia não dá conta de toda a realidade

O conceito ocidental baseado na experiência europeia não dá conta de toda a realidade. Acontece que os demais modelos são invisibilizados por outros que nos fazem compreender o mundo de forma engessada. Isso vale não só para a ideia de família como também de Estado, política, democracia. Para alguns autores, não é o dinheiro que faz uma sociedade ser classificada como “periférica”. Mas sim o não domínio sobre as categorias que organizam o pensamento, a política e a sociedade.

Essa imitação subalterna é muito perceptível na academia…

Quase todo aluno de graduação no Brasil (desde enfermagem a agronomia, passando pela engenharia) estuda ciências sociais como disciplina obrigatória. Em muitos casos isso envolve a leitura dos ‘clássicos’: Karl Marx [1818-1883], Max Weber [1864-1920], Émile Durkheim [1858-1917]. Eles são interessantíssimos, não há dúvida. Mas parece uma igreja com seus santos principais. Cadê os santos da periferia? Que autores pensaram as sociedades que hoje são periféricas? É um desafio contemporâneo incluir outros clássicos no ensino e no debate. Muito se perde diante do fato de que as estruturas para conhecer o ‘outro’ estão marcadas pela experiência de uma província, de uma paróquia específica, que é a Europa. É preciso universalizar o vocabulário de categorias de análise de modo que o mundo seja mais polifônico.

Você leu apenas o início da entrevista publicada na CH 312. Clique no ícone a seguir para baixar a versão integral. PDF aberto (gif)

Important and complex systems, from the global financial market to groups of friends, may be highly controllable (Science Daily)

Date: March 20, 2014

Source: McGill University

Summary: Scientists have discovered that all complex systems, whether they are found in the body, in international finance, or in social situations, actually fall into just three basic categories, in terms of how they can be controlled.

All complex systems, whether they are found in the body, in international finance, or in social situations, actually fall into just three basic categories, in terms of how they can be controlled, researchers say. Credit: © Artur Marciniec / Fotolia

We don’t often think of them in these terms, but our brains, global financial markets and groups of friends are all examples of different kinds of complex networks or systems. And unlike the kind of system that exists in your car that has been intentionally engineered for humans to use, these systems are convoluted and not obvious how to control. Economic collapse, disease, and miserable dinner parties may result from a breakdown in such systems, which is why researchers have recently being putting so much energy into trying to discover how best to control these large and important systems.

But now two brothers, Profs. Justin and Derek Ruths, from Singapore University of Technology and Design and McGill University respectively, have suggested, in an article published in Science, that all complex systems, whether they are found in the body, in international finance, or in social situations, actually fall into just three basic categories, in terms of how they can be controlled.

They reached this conclusion by surveying the inputs and outputs and the critical control points in a wide range of systems that appear to function in completely different ways. (The critical control points are the parts of a system that you have to control in order to make it do whatever you want — not dissimilar to the strings you use to control a puppet).

“When controlling a cell in the body, for example, these control points might correspond to proteins that we can regulate using specific drugs,” said Justin Ruths. “But in the case of a national or international economic system, the critical control points could be certain companies whose financial activity needs to be directly regulated.”

One grouping, for example, put organizational hierarchies, gene regulation, and human purchasing behaviour together, in part because in each, it is hard to control individual parts of the system in isolation. Another grouping includes social networks such as groups of friends (whether virtual or real), and neural networks (in the brain), where the systems allow for relatively independent behaviour. The final group includes things like food systems, electrical circuits and the internet, all of which function basically as closed systems where resources circulate internally.

Referring to these groupings, Derek Ruths commented, “While our framework does provide insights into the nature of control in these systems, we’re also intrigued by what these groupings tell us about how very different parts of the world share deep and fundamental attributes in common — which may help unify our understanding of complexity and of control.”

“What we really want people to take away from the research at this point is that we can control these complex and important systems in the same way that we can control a car,” says Justin Ruths. “And that our work is giving us insight into which parts of the system we need to control and why. Ultimately, at this point we have developed some new theory that helps to advance the field in important ways, but it may still be another five to ten years before we see how this will play out in concrete terms.”

Journal Reference:

  1. Justin Ruths and Derek Ruths. Control Profiles of Complex NetworksScience, 2014 DOI: 10.1126/science.1242063

An end to animal testing for drug discovery? (Science Daily)

Date: March 18, 2014

Source: American Chemical Society

Summary: As some countries and companies roll out new rules to limit animal testing in pharmaceutical products designed for people, scientists are stepping in with a new way to test therapeutic drug candidates and determine drug safety and drug interactions — without using animals. The development of “chemosynthetic livers” could dramatically alter how drugs are made.

As some countries and companies roll out new rules to limit animal testing in pharmaceutical products designed for people, scientists are stepping in with a new way to test therapeutic drug candidates and determine drug safety and drug interactions — without using animals. Credit: © mrks_v / Fotolia

As some countries and companies roll out new rules to limit animal testing in pharmaceutical products designed for people, scientists are stepping in with a new way to test therapeutic drug candidates and determine drug safety and drug interactions — without using animals. The development of “chemosynthetic livers” could dramatically alter how drugs are made.

This research was presented at the 247th National Meeting & Exposition of the American Chemical Society.

Mukund Chorghade, Ph.D., noted that the European Union enacted new regulations in 2010, known as REACH, that aim to dramatically reduce the use of animals in testing. But the development of new pharmaceuticals still depends heavily on the time-consuming and expensive process of animal testing.

“Researchers in drug discovery make small quantities of new potential drug compounds and then test them in animals,” said Chorghade, who is chief scientific officer of Empiriko Corporation and president of THINQ Pharma. “It is a very painstaking, laborious and costly process. Frequently, scientists have to sacrifice many animals, and even after all that, the results are not optimal.”

Typically, when researchers are onto a new compound that could address an unmet human health need, they test it on animals to see if it’s toxic before taking it into clinical trials with human subjects. They figure this out by doing something called metabolic profiling. That is, after giving an animal a test drug, the experimental compound does its designated job in the body until the liver breaks it down. Then researchers try to detect the resulting, minute amounts of molecular byproducts, or metabolites. It’s these metabolites that are often responsible for causing nasty side effects that can derail an otherwise promising therapeutic candidate.

This is where Empiriko’s patented chemosynthetic liver technology (Biomimiks™) comes in. Chorghade has developed these stand-ins, which are catalysts that act similarly to a group of enzymes known as cytochrome P450. Catalysts are substances that speed up processes that otherwise wouldn’t happen or would occur slowly. Many of these cytochrome P450 enzymes break down drugs in the liver.

So rather than using lab animals, researchers could figure out metabolic profiles of drugs by mixing them in test tubes with chemosynthetic livers. Chorghade’s team at Empiriko has already demonstrated how Biomimiks™ works with several pharmaceutical compounds.

“These chemosynthetic livers not only produce the same metabolites as live animals in a fraction of the time,” Chorghade said, “but they also provide a more comprehensive metabolic profile, in far larger quantities for further testing and analysis.”

Other possible applications are cropping up for these chemosynthetic livers. One of Empiriko’s scientific advisors suggested the use of Biomimiks™ to detoxify blood for liver transplant patients. Biomimiks™ could also be used in the near future to predict side effects when multiple drugs are taken together.

“The average American above 60 years of age is taking multiple drugs a day,” Chorghade explained. “Side effects from drug-to-drug interactions could be substantial.” In a case study, Chorghade and collaborators looked at two drugs commonly taken together, one for high cholesterol and the other for type 2 diabetes. They found that the cholesterol drug sped up the breakdown of the other one, which could potentially lower its effectiveness.

The chemosynthetic livers aren’t yet approved to take the place of animal tests. But Chorghade is optimistic. His group has tested more than 50 drugs so far to show that the catalysts accurately mimic how the human body processes them. He said that they’re working to get that number up to 100, which is what the U.S. Food and Drug Administration requires for regulatory approval.

Chorghade acknowledges funding from a private investor responsible for supporting this technology to date.

São Paulo terá Justiça rápida para detidos em grandes manifestações (Folha de São Paulo)

REYNALDO TUROLLO JR.

DE SÃO PAULO

21/03/2014 03h30

A Justiça de São Paulo ganhará, a partir de hoje, um órgão específico para analisar com rapidez casos de prisão em flagrante em grandes protestos. A medida é uma resposta às manifestações que, desde junho de 2013, têm terminado com dezenas de detidos após depredações.

O novo órgão também vai agilizar a transformação dos inquéritos policiais em processos criminais. Uma consequência esperada pelas autoridades é que a punição de alguns manifestantes sirva de exemplo a outros.

Eventuais prisões em flagrante que ocorram amanhã, quando estão previstas duas manifestações na capital paulista, já serão encaminhadas ao órgão. A expectativa das autoridades é que ele seja útil também durante a Copa.

O Tribunal de Justiça de São Paulo é o primeiro do país a implantar o Ceprajud (Centro de Pronto Atendimento Judiciário), conforme orientação do Conselho Nacional de Justiça e do Ministério da Justiça.

“Na hipótese de um evento monstruoso, que acarrete 300 prisões em flagrante, o centro vai ter uma estrutura para comportar esse aumento repentino”, afirma o juiz Kleber de Aquino, assessor da presidência do TJ para assuntos de segurança pública.

Hoje, o manifestante detido é levado ao distrito policial, onde o delegado decide se irá liberá-lo ou prendê-lo em flagrante, de acordo com a gravidade do delito.

Quando alguém fica preso, uma cópia do auto de flagrante deve seguir em 24 horas para o Dipo (departamento que centraliza flagrantes), no fórum da Barra Funda.

Um juiz do Dipo decide se a prisão será mantida –decretando a preventiva– ou se o manifestante será liberado, mediante aplicação de medidas restritivas, como proibição de ir a certos lugares.

No caso de centenas de flagrantes de uma vez, o Dipo pode acabar atrasando a análise das prisões em dois ou três dias, explica Aquino. Por isso, essa análise passará a ser feita por juízes de plantão 24 horas no Ceprajud.

O centro poderá ainda convocar juízes e funcionários extras para atender à demanda.

“Essas decisões [sobre manter preso ou soltar] é que devem ser tomadas em caráter de urgência”, diz o juiz.

“A finalidade é a apreciação célere de procedimentos criminais de urgência e de eventuais excessos da repressão policial no curso de grandes manifestações.”

Martim de Almeida Sampaio, da comissão de direitos humanos da OAB (Ordem dos Advogados do Brasil), critica a criação de uma “força-tarefa” do Judiciário para esses flagrantes e diz considerá-la parte de um conjunto de medidas para coibir protestos.

“Manifestantes que cometerem abuso devem ser punidos, mas essa via rápida voltada exclusivamente a eles é um pouco exagerada”, diz.

“A demanda da sociedade é por uma Justiça ágil, mas não voltada exclusivamente a processos contra movimento social”, afirma o advogado.