Arquivo da tag: Filosofia

Why can’t the world’s greatest minds solve the mystery of consciousness? (Guardian)

Peter Gamlen cover3

Illustration by Pete Gamlen

Original article

The long read

Philosophers and scientists have been at war for decades over the question of what makes human beings more than complex robots

by Oliver Burkeman

Wed 21 Jan 2015 06.00 GMTShare

One spring morning in Tucson, Arizona, in 1994, an unknown philosopher named David Chalmers got up to give a talk on consciousness, by which he meant the feeling of being inside your head, looking out – or, to use the kind of language that might give a neuroscientist an aneurysm, of having a soul. Though he didn’t realise it at the time, the young Australian academic was about to ignite a war between philosophers and scientists, by drawing attention to a central mystery of human life – perhaps the central mystery of human life – and revealing how embarrassingly far they were from solving it.

brain on a blackboard illustration

The scholars gathered at the University of Arizona – for what would later go down as a landmark conference on the subject – knew they were doing something edgy: in many quarters, consciousness was still taboo, too weird and new agey to take seriously, and some of the scientists in the audience were risking their reputations by attending. Yet the first two talks that day, before Chalmers’s, hadn’t proved thrilling. “Quite honestly, they were totally unintelligible and boring – I had no idea what anyone was talking about,” recalled Stuart Hameroff, the Arizona professor responsible for the event. “As the organiser, I’m looking around, and people are falling asleep, or getting restless.” He grew worried. “But then the third talk, right before the coffee break – that was Dave.” With his long, straggly hair and fondness for all-body denim, the 27-year-old Chalmers looked like he’d got lost en route to a Metallica concert. “He comes on stage, hair down to his butt, he’s prancing around like Mick Jagger,” Hameroff said. “But then he speaks. And that’s when everyone wakes up.”

The brain, Chalmers began by pointing out, poses all sorts of problems to keep scientists busy. How do we learn, store memories, or perceive things? How do you know to jerk your hand away from scalding water, or hear your name spoken across the room at a noisy party? But these were all “easy problems”, in the scheme of things: given enough time and money, experts would figure them out. There was only one truly hard problem of consciousness, Chalmers said. It was a puzzle so bewildering that, in the months after his talk, people started dignifying it with capital letters – the Hard Problem of Consciousness – and it’s this: why on earth should all those complicated brain processes feel like anything from the inside? Why aren’t we just brilliant robots, capable of retaining information, of responding to noises and smells and hot saucepans, but dark inside, lacking an inner life? And how does the brain manage it? How could the 1.4kg lump of moist, pinkish-beige tissue inside your skull give rise to something as mysterious as the experience of being that pinkish-beige lump, and the body to which it is attached?

What jolted Chalmers’s audience from their torpor was how he had framed the question. “At the coffee break, I went around like a playwright on opening night, eavesdropping,” Hameroff said. “And everyone was like: ‘Oh! The Hard Problem! The Hard Problem! That’s why we’re here!’” Philosophers had pondered the so-called “mind-body problem” for centuries. But Chalmers’s particular manner of reviving it “reached outside philosophy and galvanised everyone. It defined the field. It made us ask: what the hell is this that we’re dealing with here?”

Two decades later, we know an astonishing amount about the brain: you can’t follow the news for a week without encountering at least one more tale about scientists discovering the brain region associated with gambling, or laziness, or love at first sight, or regret – and that’s only the research that makes the headlines. Meanwhile, the field of artificial intelligence – which focuses on recreating the abilities of the human brain, rather than on what it feels like to be one – has advanced stupendously. But like an obnoxious relative who invites himself to stay for a week and then won’t leave, the Hard Problem remains. When I stubbed my toe on the leg of the dining table this morning, as any student of the brain could tell you, nerve fibres called “C-fibres” shot a message to my spinal cord, sending neurotransmitters to the part of my brain called the thalamus, which activated (among other things) my limbic system. Fine. But how come all that was accompanied by an agonising flash of pain? And what is pain, anyway?

Questions like these, which straddle the border between science and philosophy, make some experts openly angry. They have caused others to argue that conscious sensations, such as pain, don’t really exist, no matter what I felt as I hopped in anguish around the kitchen; or, alternatively, that plants and trees must also be conscious. The Hard Problem has prompted arguments in serious journals about what is going on in the mind of a zombie, or – to quote the title of a famous 1974 paper by the philosopher Thomas Nagel – the question “What is it like to be a bat?” Some argue that the problem marks the boundary not just of what we currently know, but of what science could ever explain. On the other hand, in recent years, a handful of neuroscientists have come to believe that it may finally be about to be solved – but only if we are willing to accept the profoundly unsettling conclusion that computers or the internet might soon become conscious, too.

Next week, the conundrum will move further into public awareness with the opening of Tom Stoppard’s new play, The Hard Problem, at the National Theatre – the first play Stoppard has written for the National since 2006, and the last that the theatre’s head, Nicholas Hytner, will direct before leaving his post in March. The 77-year-old playwright has revealed little about the play’s contents, except that it concerns the question of “what consciousness is and why it exists”, considered from the perspective of a young researcher played by Olivia Vinall. Speaking to the Daily Mail, Stoppard also clarified a potential misinterpretation of the title. “It’s not about erectile dysfunction,” he said.

Stoppard’s work has long focused on grand, existential themes, so the subject is fitting: when conversation turns to the Hard Problem, even the most stubborn rationalists lapse quickly into musings on the meaning of life. Christof Koch, the chief scientific officer at the Allen Institute for Brain Science, and a key player in the Obama administration’s multibillion-dollar initiative to map the human brain, is about as credible as neuroscientists get. But, he told me in December: “I think the earliest desire that drove me to study consciousness was that I wanted, secretly, to show myself that it couldn’t be explained scientifically. I was raised Roman Catholic, and I wanted to find a place where I could say: OK, here, God has intervened. God created souls, and put them into people.” Koch assured me that he had long ago abandoned such improbable notions. Then, not much later, and in all seriousness, he said that on the basis of his recent research he thought it wasn’t impossible that his iPhone might have feelings.

In all seriousness, Koch said he thought it wasn’t impossible that his iPhone might have feelings


By the time Chalmers delivered his speech in Tucson, science had been vigorously attempting to ignore the problem of consciousness for a long time. The source of the animosity dates back to the 1600s, when René Descartes identified the dilemma that would tie scholars in knots for years to come. On the one hand, Descartes realised, nothing is more obvious and undeniable than the fact that you’re conscious. In theory, everything else you think you know about the world could be an elaborate illusion cooked up to deceive you – at this point, present-day writers invariably invoke The Matrix – but your consciousness itself can’t be illusory. On the other hand, this most certain and familiar of phenomena obeys none of the usual rules of science. It doesn’t seem to be physical. It can’t be observed, except from within, by the conscious person. It can’t even really be described. The mind, Descartes concluded, must be made of some special, immaterial stuff that didn’t abide by the laws of nature; it had been bequeathed to us by God.

This religious and rather hand-wavy position, known as Cartesian dualism, remained the governing assumption into the 18th century and the early days of modern brain study. But it was always bound to grow unacceptable to an increasingly secular scientific establishment that took physicalism – the position that only physical things exist – as its most basic principle. And yet, even as neuroscience gathered pace in the 20th century, no convincing alternative explanation was forthcoming. So little by little, the topic became taboo. Few people doubted that the brain and mind were very closely linked: if you question this, try stabbing your brain repeatedly with a kitchen knife, and see what happens to your consciousness. But how they were linked – or if they were somehow exactly the same thing – seemed a mystery best left to philosophers in their armchairs. As late as 1989, writing in the International Dictionary of Psychology, the British psychologist Stuart Sutherland could irascibly declare of consciousness that “it is impossible to specify what it is, what it does, or why it evolved. Nothing worth reading has been written on it.”

It was only in 1990 that Francis Crick, the joint discoverer of the double helix, used his position of eminence to break ranks. Neuroscience was far enough along by now, he declared in a slightly tetchy paper co-written with Christof Koch, that consciousness could no longer be ignored. “It is remarkable,” they began, “that most of the work in both cognitive science and the neurosciences makes no reference to consciousness” – partly, they suspected, “because most workers in these areas cannot see any useful way of approaching the problem”. They presented their own “sketch of a theory”, arguing that certain neurons, firing at certain frequencies, might somehow be the cause of our inner awareness – though it was not clear how.

Illustration by Pete Gamlen
Illustration by Pete Gamlen

“People thought I was crazy to be getting involved,” Koch recalled. “A senior colleague took me out to lunch and said, yes, he had the utmost respect for Francis, but Francis was a Nobel laureate and a half-god and he could do whatever he wanted, whereas I didn’t have tenure yet, so I should be incredibly careful. Stick to more mainstream science! These fringey things – why not leave them until retirement, when you’re coming close to death, and you can worry about the soul and stuff like that?”

It was around this time that David Chalmers started talking about zombies.


As a child, Chalmers was short-sighted in one eye, and he vividly recalls the day he was first fitted with glasses to rectify the problem. “Suddenly I had proper binocular vision,” he said. “And the world just popped out. It was three-dimensional to me in a way it hadn’t been.” He thought about that moment frequently as he grew older. Of course, you could tell a simple mechanical story about what was going on in the lens of his glasses, his eyeball, his retina, and his brain. “But how does that explain the way the world just pops out like that?” To a physicalist, the glasses-eyeball-retina story is the only story. But to a thinker of Chalmers’s persuasion, it was clear that it wasn’t enough: it told you what the machinery of the eye was doing, but it didn’t begin to explain that sudden, breathtaking experience of depth and clarity. Chalmers’s “zombie” thought experiment is his attempt to show why the mechanical account is not enough – why the mystery of conscious awareness goes deeper than a purely material science can explain.

“Look, I’m not a zombie, and I pray that you’re not a zombie,” Chalmers said, one Sunday before Christmas, “but the point is that evolution could have produced zombies instead of conscious creatures – and it didn’t!” We were drinking espressos in his faculty apartment at New York University, where he recently took up a full-time post at what is widely considered the leading philosophy department in the Anglophone world; boxes of his belongings, shipped over from Australia, lay unpacked around his living-room. Chalmers, now 48, recently cut his hair in a concession to academic respectability, and he wears less denim, but his ideas remain as heavy-metal as ever. The zombie scenario goes as follows: imagine that you have a doppelgänger. This person physically resembles you in every respect, and behaves identically to you; he or she holds conversations, eats and sleeps, looks happy or anxious precisely as you do. The sole difference is that the doppelgänger has no consciousness; this – as opposed to a groaning, blood-spattered walking corpse from a movie – is what philosophers mean by a “zombie”.

Such non-conscious humanoids don’t exist, of course. (Or perhaps it would be better to say that I know I’m not one, anyhow; I could never know for certain that you aren’t.) But the point is that, in principle, it feels as if they could. Evolution might have produced creatures that were atom-for-atom the same as humans, capable of everything humans can do, except with no spark of awareness inside. As Chalmers explained: “I’m talking to you now, and I can see how you’re behaving; I could do a brain scan, and find out exactly what’s going on in your brain – yet it seems it could be consistent with all that evidence that you have no consciousness at all.” If you were approached by me and my doppelgänger, not knowing which was which, not even the most powerful brain scanner in existence could tell us apart. And the fact that one can even imagine this scenario is sufficient to show that consciousness can’t just be made of ordinary physical atoms. So consciousness must, somehow, be something extra – an additional ingredient in nature.

Chalmers recently cut his hair and he wears less denim, but his ideas remain as heavy-metal as ever

It would be understating things a bit to say that this argument wasn’t universally well-received when Chalmers began to advance it, most prominently in his 1996 book The Conscious Mind. The withering tone of the philosopher Massimo Pigliucci sums up the thousands of words that have been written attacking the zombie notion: “Let’s relegate zombies to B-movies and try to be a little more serious about our philosophy, shall we?” Yes, it may be true that most of us, in our daily lives, think of consciousness as something over and above our physical being – as if your mind were “a chauffeur inside your own body”, to quote the spiritual author Alan Watts. But to accept this as a scientific principle would mean rewriting the laws of physics. Everything we know about the universe tells us that reality consists only of physical things: atoms and their component particles, busily colliding and combining. Above all, critics point out, if this non-physical mental stuff did exist, how could it cause physical things to happen – as when the feeling of pain causes me to jerk my fingers away from the saucepan’s edge?

Nonetheless, just occasionally, science has dropped tantalising hints that this spooky extra ingredient might be real. In the 1970s, at what was then the National Hospital for Nervous Diseases in London, the neurologist Lawrence Weiskrantz encountered a patient, known as “DB”, with a blind spot in his left visual field, caused by brain damage. Weiskrantz showed him patterns of striped lines, positioned so that they fell on his area of blindness, then asked him to say whether the stripes were vertical or horizontal. Naturally, DB protested that he could see no stripes at all. But Weiskrantz insisted that he guess the answers anyway – and DB got them right almost 90% of the time. Apparently, his brain was perceiving the stripes without his mind being conscious of them. One interpretation is that DB was a semi-zombie, with a brain like any other brain, but partially lacking the magical add-on of consciousness.

Chalmers knows how wildly improbable his ideas can seem, and takes this in his stride: at philosophy conferences, he is fond of clambering on stage to sing The Zombie Blues, a lament about the miseries of having no consciousness. (“I act like you act / I do what you do / But I don’t know / What it’s like to be you.”) “The conceit is: wouldn’t it be a drag to be a zombie? Consciousness is what makes life worth living, and I don’t even have that: I’ve got the zombie blues.” The song has improved since its debut more than a decade ago, when he used to try to hold a tune. “Now I’ve realised it sounds better if you just shout,” he said.


Pete Gamlen
Illustration by Pete Gamlen

The consciousness debates have provoked more mudslinging and fury than most in modern philosophy, perhaps because of how baffling the problem is: opposing combatants tend not merely to disagree, but to find each other’s positions manifestly preposterous. An admittedly extreme example concerns the Canadian-born philosopher Ted Honderich, whose book On Consciousness was described, in an article by his fellow philosopher Colin McGinn in 2007, as “banal and pointless”, “excruciating”, “absurd”, running “the full gamut from the mediocre to the ludicrous to the merely bad”. McGinn added, in a footnote: “The review that appears here is not as I originally wrote it. The editors asked me to ‘soften the tone’ of the original [and] I have done so.” (The attack may have been partly motivated by a passage in Honderich’s autobiography, in which he mentions “my small colleague Colin McGinn”; at the time, Honderich told this newspaper he’d enraged McGinn by referring to a girlfriend of his as “not as plain as the old one”.)

McGinn, to be fair, has made a career from such hatchet jobs. But strong feelings only slightly more politely expressed are commonplace. Not everybody agrees there is a Hard Problem to begin with – making the whole debate kickstarted by Chalmers an exercise in pointlessness. Daniel Dennett, the high-profile atheist and professor at Tufts University outside Boston, argues that consciousness, as we think of it, is an illusion: there just isn’t anything in addition to the spongy stuff of the brain, and that spongy stuff doesn’t actually give rise to something called consciousness. Common sense may tell us there’s a subjective world of inner experience – but then common sense told us that the sun orbits the Earth, and that the world was flat. Consciousness, according to Dennett’s theory, is like a conjuring trick: the normal functioning of the brain just makes it look as if there is something non-physical going on. To look for a real, substantive thing called consciousness, Dennett argues, is as silly as insisting that characters in novels, such as Sherlock Holmes or Harry Potter, must be made up of a peculiar substance named “fictoplasm”; the idea is absurd and unnecessary, since the characters do not exist to begin with. This is the point at which the debate tends to collapse into incredulous laughter and head-shaking: neither camp can quite believe what the other is saying. To Dennett’s opponents, he is simply denying the existence of something everyone knows for certain: their inner experience of sights, smells, emotions and the rest. (Chalmers has speculated, largely in jest, that Dennett himself might be a zombie.) It’s like asserting that cancer doesn’t exist, then claiming you’ve cured cancer; more than one critic of Dennett’s most famous book, Consciousness Explained, has joked that its title ought to be Consciousness Explained Away. Dennett’s reply is characteristically breezy: explaining things away, he insists, is exactly what scientists do. When physicists first concluded that the only difference between gold and silver was the number of subatomic particles in their atoms, he writes, people could have felt cheated, complaining that their special “goldness” and “silveriness” had been explained away. But everybody now accepts that goldness and silveriness are really just differences in atoms. However hard it feels to accept, we should concede that consciousness is just the physical brain, doing what brains do.

“The history of science is full of cases where people thought a phenomenon was utterly unique, that there couldn’t be any possible mechanism for it, that we might never solve it, that there was nothing in the universe like it,” said Patricia Churchland of the University of California, a self-described “neurophilosopher” and one of Chalmers’s most forthright critics. Churchland’s opinion of the Hard Problem, which she expresses in caustic vocal italics, is that it is nonsense, kept alive by philosophers who fear that science might be about to eliminate one of the puzzles that has kept them gainfully employed for years. Look at the precedents: in the 17th century, scholars were convinced that light couldn’t possibly be physical – that it had to be something occult, beyond the usual laws of nature. Or take life itself: early scientists were convinced that there had to be some magical spirit – the élan vital – that distinguished living beings from mere machines. But there wasn’t, of course. Light is electromagnetic radiation; life is just the label we give to certain kinds of objects that can grow and reproduce. Eventually, neuroscience will show that consciousness is just brain states. Churchland said: “The history of science really gives you perspective on how easy it is to talk ourselves into this sort of thinking – that if my big, wonderful brain can’t envisage the solution, then it must be a really, really hard problem!”

Solutions have regularly been floated: the literature is awash in references to “global workspace theory”, “ego tunnels”, “microtubules”, and speculation that quantum theory may provide a way forward. But the intractability of the arguments has caused some thinkers, such as Colin McGinn, to raise an intriguing if ultimately defeatist possibility: what if we’re just constitutionally incapable of ever solving the Hard Problem? After all, our brains evolved to help us solve down-to-earth problems of survival and reproduction; there is no particular reason to assume they should be capable of cracking every big philosophical puzzle we happen to throw at them. This stance has become known as “mysterianism” – after the 1960s Michigan rock’n’roll band ? and the Mysterians, who themselves borrowed the name from a work of Japanese sci-fi – but the essence of it is that there’s actually no mystery to why consciousness hasn’t been explained: it’s that humans aren’t up to the job. If we struggle to understand what it could possibly mean for the mind to be physical, maybe that’s because we are, to quote the American philosopher Josh Weisberg, in the position of “squirrels trying to understand quantum mechanics”. In other words: “It’s just not going to happen.”


Or maybe it is: in the last few years, several scientists and philosophers, Chalmers and Koch among them, have begun to look seriously again at a viewpoint so bizarre that it has been neglected for more than a century, except among followers of eastern spiritual traditions, or in the kookier corners of the new age. This is “panpsychism”, the dizzying notion that everything in the universe might be conscious, or at least potentially conscious, or conscious when put into certain configurations. Koch concedes that this sounds ridiculous: when he mentions panpsychism, he has written, “I often encounter blank stares of incomprehension.” But when it comes to grappling with the Hard Problem, crazy-sounding theories are an occupational hazard. Besides, panpsychism might help unravel an enigma that has attached to the study of consciousness from the start: if humans have it, and apes have it, and dogs and pigs probably have it, and maybe birds, too – well, where does it stop?

Illustration by Pete Gamlen
Illustration by Pete Gamlen

Growing up as the child of German-born Catholics, Koch had a dachshund named Purzel. According to the church, because he was a dog, that meant he didn’t have a soul. But he whined when anxious and yelped when injured – “he certainly gave every appearance of having a rich inner life”. These days we don’t much speak of souls, but it is widely assumed that many non-human brains are conscious – that a dog really does feel pain when he is hurt. The problem is that there seems to be no logical reason to draw the line at dogs, or sparrows or mice or insects, or, for that matter, trees or rocks. Since we don’t know how the brains of mammals create consciousness, we have no grounds for assuming it’s only the brains of mammals that do so – or even that consciousness requires a brain at all. Which is how Koch and Chalmers have both found themselves arguing, in the pages of the New York Review of Books, that an ordinary household thermostat or a photodiode, of the kind you might find in your smoke detector, might in principle be conscious.

The argument unfolds as follows: physicists have no problem accepting that certain fundamental aspects of reality – such as space, mass, or electrical charge – just do exist. They can’t be explained as being the result of anything else. Explanations have to stop somewhere. The panpsychist hunch is that consciousness could be like that, too – and that if it is, there is no particular reason to assume that it only occurs in certain kinds of matter.

Koch’s specific twist on this idea, developed with the neuroscientist and psychiatrist Giulio Tononi, is narrower and more precise than traditional panpsychism. It is the argument that anything at all could be conscious, providing that the information it contains is sufficiently interconnected and organised. The human brain certainly fits the bill; so do the brains of cats and dogs, though their consciousness probably doesn’t resemble ours. But in principle the same might apply to the internet, or a smartphone, or a thermostat. (The ethical implications are unsettling: might we owe the same care to conscious machines that we bestow on animals? Koch, for his part, tries to avoid stepping on insects as he walks.)

Unlike the vast majority of musings on the Hard Problem, moreover, Tononi and Koch’s “integrated information theory” has actually been tested. A team of researchers led by Tononi has designed a device that stimulates the brain with electrical voltage, to measure how interconnected and organised – how “integrated” – its neural circuits are. Sure enough, when people fall into a deep sleep, or receive an injection of anaesthetic, as they slip into unconsciousness, the device demonstrates that their brain integration declines, too. Among patients suffering “locked-in syndrome” – who are as conscious as the rest of us – levels of brain integration remain high; among patients in coma – who aren’t – it doesn’t. Gather enough of this kind of evidence, Koch argues and in theory you could take any device, measure the complexity of the information contained in it, then deduce whether or not it was conscious.

But even if one were willing to accept the perplexing claim that a smartphone could be conscious, could you ever know that it was true? Surely only the smartphone itself could ever know that? Koch shrugged. “It’s like black holes,” he said. “I’ve never been in a black hole. Personally, I have no experience of black holes. But the theory [that predicts black holes] seems always to be true, so I tend to accept it.”

Peter Gamelen
Illustration by Pete Gamlen

It would be satisfying for multiple reasons if a theory like this were eventually to vanquish the Hard Problem. On the one hand, it wouldn’t require a belief in spooky mind-substances that reside inside brains; the laws of physics would escape largely unscathed. On the other hand, we wouldn’t need to accept the strange and soulless claim that consciousness doesn’t exist, when it’s so obvious that it does. On the contrary, panpsychism says, it’s everywhere. The universe is throbbing with it.

Last June, several of the most prominent combatants in the consciousness debates – including Chalmers, Churchland and Dennett – boarded a tall-masted yacht for a trip among the ice floes of Greenland. This conference-at-sea was funded by a Russian internet entrepreneur, Dmitry Volkov, the founder of the Moscow Centre for Consciousness Studies. About 30 academics and graduate students, plus crew, spent a week gliding through dark waters, past looming snow-topped mountains and glaciers, in a bracing chill conducive to focused thought, giving the problem of consciousness another shot. In the mornings, they visited islands to go hiking, or examine the ruins of ancient stone huts; in the afternoons, they held conference sessions on the boat. For Chalmers, the setting only sharpened the urgency of the mystery: how could you feel the Arctic wind on your face, take in the visual sweep of vivid greys and whites and greens, and still claim conscious experience was unreal, or that it was simply the result of ordinary physical stuff, behaving ordinarily?

The question was rhetorical. Dennett and Churchland were not converted; indeed, Chalmers has no particular confidence that a consensus will emerge in the next century. “Maybe there’ll be some amazing new development that leaves us all, now, looking like pre-Darwinians arguing about biology,” he said. “But it wouldn’t surprise me in the least if in 100 years, neuroscience is incredibly sophisticated, if we have a complete map of the brain – and yet some people are still saying, ‘Yes, but how does any of that give you consciousness?’ while others are saying ‘No, no, no – that just is the consciousness!’” The Greenland cruise concluded in collegial spirits, and mutual incomprehension.

It would be poetic – albeit deeply frustrating – were it ultimately to prove that the one thing the human mind is incapable of comprehending is itself. An answer must be out there somewhere. And finding it matters: indeed, one could argue that nothing else could ever matter more – since anything at all that matters, in life, only does so as a consequence of its impact on conscious brains. Yet there’s no reason to assume that our brains will be adequate vessels for the voyage towards that answer. Nor that, were we to stumble on a solution to the Hard Problem, on some distant shore where neuroscience meets philosophy, we would even recognise that we’d found it.

Follow the Long Read on Twitter: @gdnlongread

  • This article was amended on 21 January 2015. The conference-at-sea was funded by the Russian internet entrepreneur Dmitry Volkov, not Dmitry Itskov as was originally stated. This has been corrected.

Consciousness theory slammed as ‘pseudoscience’ — sparking uproar (Nature)

nature.com

Researchers publicly call out theory that they say is not well supported by science, but that gets undue attention.

Mariana Lenharo

20 September 2023


Scanning electron micrograph of human brain cells.
Some research has focused on how neurons (shown here in a false-colour scanning electron micrograph) are involved in consciousness.Credit: Ted Kinsman/Science Photo Library

A letter, signed by 124 scholars and posted online last week1, has caused an uproar in the consciousness research community. It claims that a prominent theory describing what makes someone or something conscious — called the integrated information theory (IIT) — should be labelled “pseudoscience”. Since its publication on 15 September in the preprint repository PsyArXiv, the letter has some researchers arguing over the label and others worried it will increase polarization in a field that has grappled with issues of credibility in the past.Decades-long bet on consciousness ends — and it’s philosopher 1, neuroscientist 0

“I think it’s inflammatory to describe IIT as pseudoscience,” says neuroscientist Anil Seth, director of the Centre for Consciousness Science at the University of Sussex near Brighton, UK, adding that he disagrees with the label. “IIT is a theory, of course, and therefore may be empirically wrong,” says neuroscientist Christof Koch, a meritorious investigator at the Allen Institute for Brain Science in Seattle, Washington, and a proponent of the theory. But he says that it makes its assumptions — for example, that consciousness has a physical basis and can be mathematically measured — very clear.

There are dozens of theories that seek to understand consciousness — everything that a human or non-human experiences, including what they feel, see and hear — as well as its underlying neural foundations. IIT has often been described as one of the central theories, alongside others, such as global neuronal workspace theory (GNW), higher-order thought theory and recurrent processing theory. It proposes that consciousness emerges from the way information is processed within a ‘system’ (for instance, networks of neurons or computer circuits), and that systems that are more interconnected, or integrated, have higher levels of consciousness.

A growing discomfort

Hakwan Lau, a neuroscientist at Riken Center for Brain Science in Wako, Japan, and one of the authors of the letter, says that some researchers in the consciousness field are uncomfortable with what they perceive as a discrepancy between IIT’s scientific merit and the considerable attention it receives from the popular media because of how it is promoted by advocates. “Has IIT become a leading theory because of academic acceptance first, or is it because of the popular noise that kind of forced the academics to give it acknowledgement?”, Lau asks.If AI becomes conscious: here’s how researchers will know

Negative feelings towards the theory intensified after it captured headlines in June. Media outlets, including Nature, reported the results of an ‘adversarial’ study that pitted IIT and GNW against one another. The experiments, which included brain scans, didn’t prove or completely disprove either theory, but some researchers found it problematic that IIT was highlighted as a leading theory of consciousness, prompting Lau and his co-authors to draft their letter.

But why label IIT as pseudoscience? Although the letter doesn’t clearly define pseudoscience, Lau notes that a “commonsensical definition” is that pseudoscience refers to “something that is not very scientifically supported, that masquerades as if it is already very scientifically established”. In this sense, he thinks that IIT fits the bill.

Is it testable?

Additionally, Lau says, some of his co-authors think that it’s not possible to empirically test IIT’s core assumptions, which they argue contributes to the theory’s status as pseudoscience.Decoding the neuroscience of consciousness

Seth, who is not a proponent of IIT, although he has worked on related ideas in the past, disagrees. “The core claims are harder to test than other theories because it’s a more ambitious theory,” he says. But there are some predictions stemming from the theory, about neural activity associated with consciousness, for instance, that can be tested, he adds. A 2022 review found 101 empirical studies involving IIT2.

Liad Mudrik, a neuroscientist at Tel Aviv University, in Israel, who co-led the adversarial study of IIT versus GNW, also defends IIT’s testability at the neural level. “Not only did we test it, we managed to falsify one of its predictions,” she says. “I think many people in the field don’t like IIT, and this is completely fine. Yet it is not clear to me what is the basis for claiming that it is not one of the leading theories.”

The same criticism about a lack of meaningful empirical tests could be made about other theories of consciousness, says Erik Hoel, a neuroscientist and writer who lives on Cape Cod, in Massachusetts, and who is a former student of Giulio Tononi, a neuroscientist at the University of Wisconsin-Madison who is a proponent of IIT. “Everyone who works in the field has to acknowledge that we don’t have perfect brain scans,” he says. “And yet, somehow, IIT is singled out in the letter as this being a problem that’s unique to it.”

Damaging effect

Lau says he doesn’t expect a consensus on the topic. “But I think if it is known that, let’s say, a significant minority of us are willing to [sign our names] that we think it is pseudoscience, knowing that some people may disagree, that’s still a good message.” He hopes that the letter reaches young researchers, policymakers, journal editors and funders. “All of them right now are very easily swayed by the media narrative.”

Mudrik, who emphasizes that she deeply respects the people who signed the letter, some of whom are close collaborators and friends, says that she worries about the effect it will have on the way the consciousness field is perceived. “Consciousness research has been struggling with scepticism from its inception, trying to establish itself as a legitimate scientific field,” she says. “In my opinion, the way to fight such scepticism is by conducting excellent and rigorous research”, rather than by publicly calling out certain people and ideas.

Hoel fears that the letter might discourage the development of other ambitious theories. “The most important thing for me is that we don’t make our hypotheses small and banal in order to avoid being tarred with the pseudoscience label.”

Ciência Fundamental: O Antropoceno dá um passo à frente (Folha de S.Paulo)

www1.folha.uol.com.br

Ciência Fundamental

11 de julho de 2023


Uma revolução fervilha, em fogo baixo, no mundo da geologia. E um anúncio dessa terça-feira, 11 de julho, acaba de aumentar a intensidade da chama: pesquisadores do Grupo de Trabalho do Antropoceno (AWG, na sigla em inglês) elegeram um ponto de referência geológica para demonstrar o advento da “época dos humanos”, ou Antropoceno.

Na prática, é um avanço na decisão sobre se o Antropoceno deve entrar ou não na escala de tempo geológico que demarca oficialmente eras, períodos, épocas e outros intervalos da idade da Terra como conhecemos.

Ilustração: Clarice Wenzel, Instituto Serrapilheira

De uma lista de 12 sítios geológicos que poderiam comprovar o surgimento da nova época, pesquisadores do AWG escolheram o lago Crawford — situado numa reserva natural ao sul de Ontário, no Canadá — como representante físico da mudança.

Com base em amostras coletadas em 2019 e 2022, um grupo de pesquisadores fez uma importante descoberta: as águas no fundo daquele lago continham oxigênio. Segundo a paleoclimatóloga Francine McCarthy — pesquisadora da Brock University, no Canadá, e coordenadora dos estudos no local —, encontrar oxigênio lá foi importante porque, assim, as camadas de rocha no leito do lago “conseguiram gravar, muito claramente, traços de plutônio liberado na detonação de bombas nucleares no início dos anos 1950” — marco temporal proposto como ponto de partida para o Antropoceno.

Para cravar um marco novo na cronologia geológica, os cientistas devem, antes de mais nada, recolher diversas amostras de rocha — e elas precisam espelhar uma grande mudança que tenha acontecido simultaneamente em escala global. No caso do Antropoceno, a explosão de bombas de hidrogênio poderia ser esse grande evento, já que nenhum continente escapou da radioatividade dessas explosões.

Uma vez eleita a amostra mais significativa, a discussão muda de patamar e é encaminhada para instâncias superiores. Agora a proposta do AWG precisa ser aprovada pela União Internacional de Ciências Geológicas, quando então a nomenclatura se tornará oficial. “A exigência de passar por três níveis de votação obriga a proposta a ser muito sólida. É um processo muito conservador, e há uma razão para tanto: não se pode formalizar uma unidade [estratigráfica] sem o apoio de evidências robustas,” diz o geólogo Colin Waters, coordenador do AWG.

Popularizado em 2000 pelo biólogo Eugene Stoermer e pelo Nobel de Química Paul Crutzen, o termo Antropoceno deriva do grego — combinação de anthropos (humano) e ceno (novo) — e batiza uma nova divisão geológica, na qual as atividades humanas tiveram um impacto decisivo na mudança ambiental. Assim a Terra deixa para trás o Holoceno, iniciado no fim da última glaciação, há cerca de 11.700 anos.

Foi no Holoceno que a humanidade conseguiu seus maiores avanços, da criação de sistemas de agricultura a progressos no âmbito da política e da economia, passando pelo surgimento da escrita e da ciência. “Como o clima no Holoceno se manteve extraordinariamente estável, a Europa, sobretudo no Renascimento, se deu o luxo de criar uma filosofia que não levava a natureza em conta, como se apenas a relação entre humanos fosse decisiva,” diz Renzo Taddei, professor de antropologia da Universidade Federal de São Paulo (Unifesp).

Por isso Taddei, que vem se debruçando sobre o tema há quase duas décadas, considera o Antropoceno uma “virada de chave” dramática, já que confere protagonismo à natureza na esfera do pensamento humano. “O Antropoceno nos mostra que o otimismo renascentista com relação à técnica, ao domínio da natureza e posteriormente ao capitalismo industrial era uma ilusão”, ele acrescenta.

Para o físico e historiador da ciência Jürgen Renn, diretor do Instituto Max Planck para a História da Ciência, em Berlim, um dos grandes desafios que a possível nova época propõe é fazer “uma geologia do presente”: abrir um novo capítulo no livro geológico enquanto testemunhamos a escrita dessa nova página — ou camada estratigráfica. Além disso, pelas perguntas filosóficas e questionamentos que suscita, a nova época “cria uma ponte entre as ciências naturais e as humanidades”.

Taddei observa que, enquanto a geologia decide se oficializa o termo ou não, disciplinas como a filosofia e a própria antropologia adotaram-no imediatamente. O conceito não é perfeito, ele diz, “mas consegue encapsular nossa relação disfuncional com o planeta em múltiplas dimensões”. Não porque tomamos consciência de que a reflexão era necessária, mas porque a natureza a impôs, com seu equilíbrio alterado e eventos extremos cada vez mais frequentes e intensos.

“O Antropoceno nos pegou desavisados. Vejo essa época como um imenso ‘tapa na cara’ da arrogância ocidental moderna, que efetivamente julgava estar resolvendo todos os problemas históricos,” conclui o antropólogo.

*

Meghie Rodrigues é jornalista de ciência.

O blog Ciência Fundamental é editado pelo Serrapilheira, um instituto privado, sem fins lucrativos, que promove a ciência no Brasil. Inscreva-se na newsletter do Serrapilheira para acompanhar as novidades do instituto e do blog.

Adam Tooze: Bruno Latour and the philosophy of life (New Statesman)

newstatesman.com

For the late French intellectual in an age of ecological crisis it was crucial to understand ourselves as rooted beings.

Adam Tooze

17 October 2022


As Bruno Latour confided to Le Monde earlier this year in one of his final interviews, philosophy was his great intellectual love. But across his long and immensely fertile intellectual life, Latour pursued that love by way of practically every other form of knowledge and pursuit – sociology, anthropology, science, history, environmentalism, political theory, the visual arts, theatre and fiction. In this way he was, above all, a philosopher of life in the comprehensive German sense of Lebensphilosophie.

Lebensphilosophie, whose leading exponents included figures such as Friedrich Nietzsche and Martin Heidegger, enjoyed its intellectual heyday between the 1870s and the 1930s. It was a project that sought to make sense of the dramatic development of modern science and the way it invaded every facet of life. In the process, it relentlessly questioned distinctions between the subject and knowledge and the foundations of metaphysics. It spilled over into the sociology of a Max Weber or the Marxism of a György Lukács. In France, writer-thinkers such as Charles Péguy or Henri Bergson might be counted as advocates of the new philosophy. Their heirs were the existentialists of the 1940s and 1950s. In the Anglophone world, one might think of the American pragmatists, William James and John Dewey, the Bloomsbury group and John Maynard Keynes.

A century later, the project of a “philosophy of life” acquired new urgency for Latour in an age of ecological crisis when it became crucial to understand ourselves not as free-floating knowing and producing subjects, but as rooted, or “landed”, beings living alongside others with all the limits, entanglements and potentials that entailed.

The heretical positions on the status of scientific knowledge for which Latour became notorious for some, are best understood as attempts to place knowledge and truth claims back in the midst of life. In a 2004 essay entitled “How to Talk About the Body?” he imagined a dialogue between a knowing subject as imagined by a naive epistemology and a Latourian subject:

“‘Ah’, sighs the traditional subject [as imagined by simplistic epistemologies], ‘if only I could extract myself from this narrow-minded body and roam through the cosmos, unfettered by any instrument, I would see the world as it is, without words, without models, without controversies, silent and contemplative’; ‘Really?’ replies the articulated body [the Latourian body which recognises its relationship to the world and knowledge about it as active and relational?] with some benign surprise, ‘why do you wish to be dead? For myself, I want to be alive and thus I want more words, more controversies, more artificial settings, more instruments, so as to become sensitive to even more differences. My kingdom for a more embodied body!’”

The classical subject-object distinction traps the knowing subject in a disembodied, unworldly position that is, in fact, tantamount to death. As Latour wrote in a brilliant passage in the same essay on the training of noses, the expert smell-testers who gauge perfume, or tea or wine: “A direct and unmediated access to the primary qualities of odours could only be detected by a bodiless nose.” But what kind of image of knowledge is this? “[T]he opposite of embodied is dead, not omniscient.”

For a Burgundian – Latour was born in 1947 into a storied family of wine négociant in Beaune – this was an obvious but profound truth. To really know something, the way a good Burgundian knows wine, means not to float above the world, but to be a porous part of it, inhaling, ingesting fermentation and the chemical elements of the terroir, the irreducibly specific terrain.

For Latour, claims to meaningful knowledge, including scientific knowledge, were generated not by simple rules and procedures that could be endlessly repeated with guaranteed results, but through immersion in the world and its particularities. This implied an existential engagement: “Knowing interestingly is always a risky business,” he wrote, “which has to be started from scratch for any new proposition at hand.” What made for generative scientific discovery was not the tautological reproduction of a state of affairs by a “true” statement, but the “fecundity, productivity, richness, originality” of good articulations. Distinctions between true and false were, more often than not, banal. Only anxious epistemologists and methodologists of science worried about those. What mattered to actual scientific practice was whether a claim was “boring”, “repetitive”, “redundant”, “inelegant”, “simply accurate”, “sterile”.

If Latour was a sceptic when it came to naive claims of “detached” scientific knowledge, this also applied doubly to naive sociologies of knowledge. Critical analyses of power, whether anti-capitalist, feminist or postcolonial, were productive and inspiring. But unless it was subject symmetrically to the same critique to which Latour subjected naive claims to scientific knowledge, social theory, even that which proclaimed itself to be critical theory, could all too easily become a snare. If the relationship of life and knowledge was the problem, then, you could not cut through that Gordian knot by invoking sociology to explain physics. What was sociology, after all, but a form of organised social knowledge? For better or for worse, all you were doing in such an exercise was multiplying the articulations from one scientific discipline to another and not necessarily in a helpful or illuminating direction.

In refusing the inherited authority of the 19th and early 20th-century canon of critical social science, Latour sought to create a form of knowledge more adequate to the late 20th and early 21st centuries. Latour thus belongs alongside Michel Foucault and Gilles Deleuze and Félix Guattari as one of the French thinkers who sought to escape the long shadow of Marxism, whether in its Hegelian (Sartre) or its anti-Hegelian (Althusser) varieties.

In place of an overly substantive notion of “the economy” or “society”, Latour proposed the looser conception of actor-networks. These are assemblages of tools, resources, researchers, means of registering concepts, and doing things that are not a priori defined in terms of a “mode of production” or a particular social order. Think of the lists of interconnected objects, systems and agents that have held our attention in the past few years: shipping containers, the flow of rainwater in Taiwan, giant freighters stuck sideways in the Suez Canal driven off course by unpredictable currents and side winds. Each of these supply chain crises has exposed actor-networks, of which we were previously oblivious. During such moments we are forced to ask: what is macro and what is micro? What is base and what is superstructure? These are Latourian questions.

One of the productive effects of seeing the world this way is that it becomes irresistibly obvious that all sorts of things have agency. This realisation is disturbing because it seems to downgrade the privilege of actual human existence and the social relations between people. But Latour’s point was never to diminish the human, but instead to emphasise the complex array of forces and agencies that are entailed in our modern lives. Our existence, Latour tried to show, depends not on the simple structures that we imagined modernity to consist of – markets, states and so on – but on the multiplication of what he calls hybrids, “supply chains” in the widest sense of the word.

Latour was not a class militant. But that does not mean that he did not have a cause. His lifelong campaign was for modernity to come to consciousness of itself, to stop taking its own simplifications at face value, to recognise the confusions and hybridity that it creates and endlessly feeds off. His mission was to persuade us, as the title of his most widely read book has it, that We Have Never Been Modern (1991). The confusion of a world in which lipid bubbles, aerosols and face masks have occupied our minds for years is what Latour wanted to prepare us for.

What Latour sought to expose was the pervasive animism that surrounds us in the form of hybrid actor-networks, whose force and significance we consistently deny. “Hybrids are everywhere,” he said, “but the question is how do you tame them, or do you explicitly recognise their strengths, which is part of the animist power of objects?” What Latour diagnosed is that modernity, as part of its productive logic, systematically denies this animation of the material world. “Modernism is the mode of life that finds the soul with which matter would be endowed, the animation, shocking.”

This repression of hybrid, animated material reality, is exposed in the often-racialised embarrassment of those who believe themselves modern when they encounter human civilisations that make no secret of their animist beliefs. It also accounts for the embarrassment triggered among true believers in modern science and its ideology by the revelations of the best histories of science, such as those by Simon Schaffer, to whom Latour owed a great debt. To Latour’s delight Schaffer showed how Isaac Newton, in the first instance, saw in gravity the manifestation of the power of angels.

The modernist impulse is to dismiss such ideas as hangovers of an earlier religious world-view and to relegate African art to the anthropology museum. But at the risk of provocation and scandal, Latour’s response was the opposite. Rather than finishing the purification of modernity and expunging angels and animism from our view of the forces that move the world, he urged that we should open our ontology to encompass the giant dark matter of hybrid concepts and real networks that actually sustain modern life.

From the 1990s onwards this made Latour one of the foremost thinkers in the ecological movement. And once again he reached for the most radical and encompassing animist notion with which to frame that commitment – the Gaia concept, which postulates the existence of a single overarching living being, encompassing global ecology. This is an eerie, supernatural, non-modern idea. But for Latour, if we settle for any more mundane description of the ecological crisis – if we fit the environment into pre-existing cost-benefit models as economists often do – we fail to recognise the radicalism of the forces that we have unleashed. We fail to understand the peril that we are in: that Gaia will lose patience and toss us, snarling, off her back.

Latour’s emphatic embrace of life, plenitude and articulation did not mean that he shrank from finitude or death. Rather the opposite. It is only from a thoroughly immanent view that you truly feel the weight of life lived towards its end, and the mysterious and awesome finality that is death. It is only from an embrace of life as emphatic as Latour’s, that you truly register the encroachment of deadening forces of the mind and the body. For Latour, life and death were intertwined by the effort of those left behind to make sense of death, by every means at their disposal, sometimes at very long distance.

In September 1976 the body of Ramesses II, the third pharaoh of the 19th Dynasty of Egypt, was flown to Paris. He was welcomed with the full military honours appropriate for a great ruler, and then his body was whisked to the laboratory to be subject to medical-forensic examination. For Latour this fantastic juxtaposition of the ancient and the modern was an irresistible provocation. The naive position was that the scientists discovered that Ramesses died of tuberculosis 3,000 years ago. He was also, a racially minded police forensic scientist claimed, most likely a redhead. For Latour, the question was more basic. How can we debate claims made self-confidently about a death that took place thousands of years ago? We were not there. There was no modern medical science then. When Ramesses ceased to live, TB was not even a “thing”. It was not until 1882 that Robert Koch in Berlin identified the bacillus. And even then, no one could have made any sensible claim about Ramesses. Making the naive, apparently matter-of-fact claim – that Ramesses died of TB in 1213 BC – in fact involves giant leaps of the imagination.

What we do know and can debate are what Latour would call “articulations”. We know that as a result of the intervention of the French president Valéry Giscard D’Estaing the Egyptian authorities were prevailed upon to allow the decaying mummy to be flown to Paris for preservation. We know that in Paris, what was left of the body was enrolled in modern technoscientific systems and testing procedures leading us to venture hypotheses about the cause of death in the distant past. Every single one of those “articulations” can be tested, probed and thereby multiplied. Entire bodies of thought can be built on different hypotheses about the corpse. So, Latour maintained, rather than those who assertively claim to know what actually happened 3,000 years ago, the journalist who declared vertiginously that Ramesses had (finally) died of TB in 1976 came closer to the truth in registering both the gulf that separates us from an event millennia in the past and the radical historical immanence of our current diagnosis. In his effort to shake us out of the complacent framework of certainty that modernity had created around us, counter-intuitive provocations of this kind were part of Latour’s method.

Unlike Ramesses’ cause of death, Bruno Latour’s was well mapped. In the 21st century, a cancer diagnosis has immediate and drastic implications. It enrols you as a patient in the machinery of the medical-industrial complex. Among all the hybrids that modern societies have created, the medical apparatus is one of the most complex. It grows ever larger and imposes its urgency in a relentless and merciless fashion. If you take your critical vantage point from an early 20th-century theorist of alienation, like Lukács or Weber for instance, it is tempting to think of this technoscientific medical apparatus as a steel-hard cage that relentlessly objectifies its patients, as bodies and cases. But for Latour, this again falls into a modernist trap. To start from the premise that objectification is actually achieved is to misunderstand and to grant too much. “Reductionism is not a sin for which scientists should make amends, but a dream precisely as unreachable as being alive and having no body. Even the hospital is not able to reduce the patient to a ‘mere object’.”

Rather than reducing us, modern medicalisation multiplies us. “When you enter into contact with hospitals, your ‘rich subjective personality’ is not reduced to a mere package of objective meat: on the contrary, you are now learning to be affected by masses of agencies hitherto unknown not only to you, but also to doctors, nurses, administration, biologists, researchers who add to your poor inarticulate body complete sets of new instruments.” The body becomes a site of a profuse multiplicity: “How can you contain so much diversity, so many cells, so many microbes, so many organs, all folded in such a way that ‘the many act as one’, as [Alfred North] Whitehead said? No subjectivity, no introspection, no native feeling can be any match for the fabulous proliferation of affects and effects that a body learns when being processed by a hospital… Far from being less, you become more.”

It’s a brave image. Perhaps it was one that sustained Latour as the cancer and the agencies deployed to fight it laid waste to his flesh. Not for nothing people describe the illness as a battle. Like a war, it can go on for years.

Latour liked military images. Perhaps because they better captured his vision of history, as mysterious, opaque, complex and contingent. Military history is one area of the modern world in which even the most high-minded analysts end up talking about tanks, bridges, rivers, Himars, Javelins and the fog of war. In the end, it is often for want of nails that battles are lost. The original French title of Latour’s famous book on the 19th-century French microbiologist Louis Pasteur – Pasteur: guerre et paix des microbes suivi de Irréductions – paid homage to Tolstoy. In the English translation that reference was lost. The Pasteurization of France (1988) replaces the French’s titles nod to War and Peace with ugly sociologese.

Latour’s own life force was strong. In his apartment on Rue Danton, Paris, with the charred remains of Notre Dames in background, he shared wines with visitors from around the world from vineyards planted in response to climate change. Covid lockdowns left him impatient. As soon as global traffic resumed, in 2021 he was assisting in the curation of the Taipei biennial. Latour’s final book, After Lockdown: A Metamorphosis appeared in English in 2021. It carries his voice into the present inviting us to imagine ourselves in an inversion of Kafka’s fable, as happy termites emerging from the lockdown on six hairy legs. “With your antennae, your articulations, your emanations, your waste matter, your mandibles, your prostheses, you may at last be becoming a human being!” No longer ill at ease, “Nothing is alien to you anymore; you’re no longer alone; you quietly digest a few molecules of whatever reaches your intestines, after having passed through the metabolism of hundreds of millions of relatives, allies, compatriots and competitors.”

As he aged, Latour became more, not less radical. Often dismissed on the left for his scepticism about classical critical social theory, the ecological turn made Latour into nothing less than an eco-warrior. His cause was the overturning of the dream world that systematically failed to recognise or grasp the forces unleashed by the modernist apparatus of production and cognition. We needed to come down to Earth, to land. Only then could we begin the hard work, with other actors, of arriving at a sustainable modus vivendi. The urgency was that of war and his mobilisation was total. The range of projects that he spawned in recent decades – artistic, political, intellectual – was dizzying. All of them aimed to find new political forms, new parliaments, new articulations.

Unlike many commentators and politicians, in response to populism, and specifically the gilet jaunes protests of 2018, Latour did not retreat to higher levels of technocracy, but instigated a collective project to compile cahiers de doléance – books of complaint – like those assembled before the French Revolution of 1789. The aim was to enrol people from all walks of life in defining what they need to live and what threatened their livelihood.

Part of the project involved an interactive theatrical exercise enacted by Latour with the architect and performance-art impresario Soheil Hajmirbaba. In a kind of ritual game, the participants arranged themselves and the forces enabling and threatening their lives – ranging from sea level rise to the increased prices for diesel – on a circular stage marked out with a compass. It was, as Latour described it, “like a children’s game, light-hearted and a lot of fun. And yet, when you get near the middle, everyone gets a bit nervous… The centre of the crucible, where I timidly put my feet, is the exact intersection of a trajectory – and I’m not in the habit of thinking of myself as a vector of a trajectory – which goes from the past, all that I’ve benefited from so as to exist, to grow, sometimes without even realising it, on which I unconsciously count and which may well stop with me, through my fault, which won’t go towards the future anymore, because of all that threatens my conditions of existence, of which I was also unaware.”

“The amazing result of this little enactment,” he continued, “is that you’re soon surrounded by a small assembly, which nonetheless represents your most personal situation, in front of the other participants. The more attachments you list, the more clearly you are defined. The more precise the description, the more the stage fills up!… A woman in the group sums it up in one phrase: ‘I’m repopulated!’”

Thus, Latour reinvented the role of the engaged French intellectual for the 21st century. And in doing so he forced the follow-on question. Was he perhaps the last of his kind? Who comes after him? As far as intellectual standing is concerned, Latour would have been impatient with the question. He was too preoccupied with new problems and projects, too enthused by the networks of collaborators, young and old whose work he drew on and that he helped to energise. But in a more general sense the question of succession haunted him. That, after all, is the most basic issue posed by the ecological crisis. What comes after us? What is our responsibility to the continuity of life?

In his effort to enact the motion of coming down to Earth, Latour faced the question head on. “With my feet on the consortium’s compass, I consult myself: in terms of my minuscule actions, do I enhance or do I stifle the lives of those I’ve benefited from till now?” Asking that question, never content with complacent or self-satisfied answers, during the night of 8-9 October 2022, Bruno Latour died aged 75 in Paris, of pancreatic cancer.

Mauro Calliari: O que seria da filosofia e da literatura sem o caminhar? (Folha de S.Paulo)

www1.folha.uol.com.br

Em tempos de metaverso, botar um pé depois do outro pode ser uma chance de se reconectar com o mundo real

14.jan.2022 às 8h04 5-7 minutes


Nietszche caminhava compulsivamente. Rousseau, que cruzou os Alpes a pé, dizia que seu escritório eram suas trilhas. Thoreau percorria sem cessar as terras ao redor do lago Walden, onde se exilou do mundo por dois anos, exercitando a relação com a natureza que moldou sua filosofia de vida.

O caminhar parece estar na raiz da inspiração de pensadores. Se andar a pé é um dos atos mais naturais da humanidade, a relação entre o fluxo do pensamento e o caminhar é menos óbvia. Um dos livros mais bonitos sobre essa relação é “Caminhar, uma filosofia”, do professor de filosofia francês Frédéric Gros, que ganhou nova tradução e foi relançado pela Editora Ubu. O livro esmiúça e expande as perambulações de um punhado de filósofos e escritores para quem o andar era parte do processo criativo, seja como inspiração, seja como catalisador de suas reflexões.

Desde que o li pela primeira vez há alguns anos, “Caminhar…” parece abrir novas janelas mentais a cada visita. Mais que narrar a relação entre o pensamento e o caminhar, Gros nos leva a refletir sobre as tantas formas do andar, do peregrino medieval aos poetas ingleses, dos grandes montanhistas aos andarilhos solitários, passando até pelas marchas políticas de Gandhi, que sensibilizaram a Índia contra a insensatez do imperialismo inglês. Cada caminhante encontra seu ritmo e seu propósito.

Em “Merlí”, série catalã que fez sucesso no Brasil, o professor de filosofia batizou sua classe de “peripatéticos”, numa alusão ao método dos filósofos gregos, que supostamente caminhavam enquanto ensinavam seus pupilos. Talvez a imagem seja uma caricatura. Gros sugere que a palavra pode ter mais relação com um lugar no liceu de Aristóteles –o peripatos– do que propriamente com um método de ensino.

Kant era um caso à parte. O filósofo alemão se apoiava na previsibilidade da rotina para produzir. Os habitantes de Konigsberg se divertiam ao vê-lo todos os dias andando no mesmo horário, pelo mesmo caminho, depois de lecionar, comer com os amigos e tirar uma pequena sesta. A conclusão de Gros é que o monumento da obra de Kant foi, justamente, construído assim, dia a dia, metódica e concentradamente, um passo de cada vez.

Baudelaire não poderia estar de fora. O mais incensado de todos os flâneurs aparece como um revolucionário, desafiando com seu andar e sua poesia o consumismo e o utilitarismo, os valores do nascente mundo moderno. Em outro livro memorável, “Tudo que é sólido desmancha no ar”, Marhsall Bermann reposiciona Baudelaire, na verdade, como um dos pioneiros da modernidade. Em meio à transformação de Paris, com seus bulevares abrindo caminho por entre o tecido medieval, Baudelaire é o poeta que abraça a mudança que o ameaça –e ainda se delicia com o “banho de multidão”. Isso sim é ser moderno.

As mulheres têm espaço nesse caminhar, como Jane Austen, ela mesma uma caminhante concentrada, que fazia suas personagens andarem quilômetros pelos moors encharcados. Mas é Virginia Woolf quem tem um dos textos mais expressivos sobre a delícia de andar. Em seu livro “Mrs. Dalloway”, a personagem sai de casa para comprar flores e descobre o prazer de mergulhar na cidade –ali “estava tudo que ela amava. Londres, a vida, este momento de junho”. Difícil ser mais eloquente sobre a emoção sensorial do caminhar.

O livro não menciona nenhum brasileiro, mas a crônica brasileira talvez não existisse sem o caminhar. João do Rio foi um dos nossos mais icônicos caminhantes-cronistas, no comecinho do século 20, conjecturando sobre as mudanças urbanas na recém-inaugurada av. Central (depois av. Rio Branco) mas também sobre rinhas de galo, terreiros, conversas nos bondes, prostitutas, o cais e tudo o que fazia do Rio o grande cenário da urbanidade brasileira. Vale a pena ler o livrinho “A Rua”, das Edições Barbatana, em que o dândi carioca entoa uma verdadeira ode à vida urbana, que tem o que é possivelmente uma das melhores aberturas de um texto: “Eu amo a rua”.

Inspirado pelos filósofos que lidam com as grandes questões da vida, do amor e da morte, enquanto caminham, me peguei pensando nas nossas vidas cotidianas, nos milhões de pessoas que saem de suas casas, andando para ir à escola, para pegar o ônibus, para ir trabalhar todos os dias.

Será que nesses trajetos diários temos tempo de nos abrir para as surpresas da cidade e filosofar um pouquinho que seja? Acho que sim. Nossas ruas não são os bulevares parisienses e nem estamos flanando sem objetivo, mas acho que é possível reservar uns minutos a mais em alguns percursos para poder explorar a cidade durante um dia normal. Quem sabe a pequena caminhada de volta a casa possa gerar uma surpresa feliz, um pensamento transformador ou pelo menos, à maneira de Baudelaire, o prazer de estar vivo enquanto nos perdemos no meio do burburinho da cidade e da multidão?

Pythagoras’ revenge: humans didn’t invent mathematics, it’s what the world is made of (The Conversation)

theconversation.com

Sam Baron – November 21, 2021 11.47pm EST


Many people think that mathematics is a human invention. To this way of thinking, mathematics is like a language: it may describe real things in the world, but it doesn’t “exist” outside the minds of the people who use it.

But the Pythagorean school of thought in ancient Greece held a different view. Its proponents believed reality is fundamentally mathematical.

More than 2,000 years later, philosophers and physicists are starting to take this idea seriously.

As I argue in a new paper, mathematics is an essential component of nature that gives structure to the physical world.

Honeybees and hexagons

Bees in hives produce hexagonal honeycomb. Why?

According to the “honeycomb conjecture” in mathematics, hexagons are the most efficient shape for tiling the plane. If you want to fully cover a surface using tiles of a uniform shape and size, while keeping the total length of the perimeter to a minimum, hexagons are the shape to use.

The hexagonal pattern of honeycomb is the most efficient way to cover a space in identical tiles. Sam Baron, Author provided

Charles Darwin reasoned that bees have evolved to use this shape because it produces the largest cells to store honey for the smallest input of energy to produce wax.

The honeycomb conjecture was first proposed in ancient times, but was only proved in 1999 by mathematician Thomas Hales.

Cicadas and prime numbers

Here’s another example. There are two subspecies of North American periodical cicadas that live most of their lives in the ground. Then, every 13 or 17 years (depending on the subspecies), the cicadas emerge in great swarms for a period of around two weeks.

Why is it 13 and 17 years? Why not 12 and 14? Or 16 and 18?

One explanation appeals to the fact that 13 and 17 are prime numbers.

Some cicadas have evolved to emerge from the ground at intervals of a prime number of years, possibly to avoid predators with life cycles of different lengths. Michael Kropiewnicki / Pixels

Imagine the cicadas have a range of predators that also spend most of their lives in the ground. The cicadas need to come out of the ground when their predators are lying dormant.

Suppose there are predators with life cycles of 2, 3, 4, 5, 6, 7, 8 and 9 years. What is the best way to avoid them all?

Well, compare a 13-year life cycle and a 12-year life cycle. When a cicada with a 12-year life cycle comes out of the ground, the 2-year, 3-year and 4-year predators will also be out of the ground, because 2, 3 and 4 all divide evenly into 12.

When a cicada with a 13-year life cycle comes out of the ground, none of its predators will be out of the ground, because none of 2, 3, 4, 5, 6, 7, 8 or 9 divides evenly into 13. The same is true for 17.

P1–P9 represent cycling predators. The number-line represents years. The highlighted gaps show how 13 and 17-year cicadas manage to avoid their predators. Sam Baron, Author provided

It seems these cicadas have evolved to exploit basic facts about numbers.

Creation or discovery?

Once we start looking, it is easy to find other examples. From the shape of soap films, to gear design in engines, to the location and size of the gaps in the rings of Saturn, mathematics is everywhere.

If mathematics explains so many things we see around us, then it is unlikely that mathematics is something we’ve created. The alternative is that mathematical facts are discovered: not just by humans, but by insects, soap bubbles, combustion engines and planets.

What did Plato think?

But if we are discovering something, what is it?

The ancient Greek philosopher Plato had an answer. He thought mathematics describes objects that really exist.

For Plato, these objects included numbers and geometric shapes. Today, we might add more complicated mathematical objects such as groups, categories, functions, fields and rings to the list.

For Plato, numbers existed in a realm separate from the physical world. Geralt / Pixabay

Plato also maintained that mathematical objects exist outside of space and time. But such a view only deepens the mystery of how mathematics explains anything.

Explanation involves showing how one thing in the world depends on another. If mathematical objects exist in a realm apart from the world we live in, they don’t seem capable of relating to anything physical.

Enter Pythagoreanism

The ancient Pythagoreans agreed with Plato that mathematics describes a world of objects. But, unlike Plato, they didn’t think mathematical objects exist beyond space and time.

Instead, they believed physical reality is made of mathematical objects in the same way matter is made of atoms.

If reality is made of mathematical objects, it’s easy to see how mathematics might play a role in explaining the world around us.

Pythagorean pie: the world is made of mathematics plus matter. Sam Baron, Author provided

In the past decade, two physicists have mounted significant defences of the Pythagorean position: Swedish-US cosmologist Max Tegmark and Australian physicist-philosopher Jane McDonnell.

Tegmark argues reality just is one big mathematical object. If that seems weird, think about the idea that reality is a simulation. A simulation is a computer program, which is a kind of mathematical object.

McDonnell’s view is more radical. She thinks reality is made of mathematical objects and minds. Mathematics is how the Universe, which is conscious, comes to know itself.

I defend a different view: the world has two parts, mathematics and matter. Mathematics gives matter its form, and matter gives mathematics its substance.

Mathematical objects provide a structural framework for the physical world.

The future of mathematics

It makes sense that Pythagoreanism is being rediscovered in physics.

In the past century physics has become more and more mathematical, turning to seemingly abstract fields of inquiry such as group theory and differential geometry in an effort to explain the physical world.

As the boundary between physics and mathematics blurs, it becomes harder to say which parts of the world are physical and which are mathematical.

But it is strange that Pythagoreanism has been neglected by philosophers for so long.

I believe that is about to change. The time has arrived for a Pythagorean revolution, one that promises to radically alter our understanding of reality.

theconversation.com

Is mathematics real? A viral TikTok video raises a legitimate question with exciting answers (The Conversation)

Daniel Mansfield – August 31, 2020 1.41am EDT


While filming herself getting ready for work recently, TikTok user @gracie.ham reached deep into the ancient foundations of mathematics and found an absolute gem of a question:

How could someone come up with a concept like algebra?

She also asked what the ancient Greek philosopher Pythagoras might have used mathematics for, and other questions that revolve around the age-old conundrum of whether mathematics is “real” or something humans just made up.

Many responded negatively to the post, but others — including mathematicians like me — found the questions quite insightful.

Is mathematics real?

Philosophers and mathematicians have been arguing over this for centuries. Some believe mathematics is universal; others consider it only as real as anything else humans have invented.

Thanks to @gracie.ham, Twitter users have now vigorously joined the debate.

For me, part of the answer lies in history.

From one perspective, mathematics is a universal language used to describe the world around us. For instance, two apples plus three apples is always five apples, regardless of your point of view.

But mathematics is also a language used by humans, so it is not independent of culture. History shows us that different cultures had their own understanding of mathematics.

Unfortunately, most of this ancient understanding is now lost. In just about every ancient culture, a few scattered texts are all that remain of their scientific knowledge.

However, there is one ancient culture that left behind an absolute abundance of texts.

Babylonian algebra

Buried in the deserts of modern Iraq, clay tablets from ancient Babylon have survived intact for about 4,000 years.

These tablets are slowly being translated and what we have learned so far is that the Babylonians were practical people who were highly numerate and knew how to solve sophisticated problems with numbers.

Their arithmetic was different from ours, though. They didn’t use zero or negative numbers. They even mapped out the motion of the planets without using calculus as we do.

Of particular importance for @gracie.ham’s question about the origins of algebra is that they knew that the numbers 3, 4 and 5 correspond to the lengths of the sides and diagonal of a rectangle. They also knew these numbers satisfied the fundamental relation 3² + 4² = 5² that ensures the sides are perpendicular.

No theorems were harmed (or used) in the construction of this rectangle.

The Babylonians did all this without modern algebraic concepts. We would express a more general version of the same idea using Pythagoras’ theorem: any right-angled triangle with sides of length a and b and hypotenuse c satisfies a² + b² = c².

The Babylonian perspective omits algebraic variables, theorems, axioms and proofs not because they were ignorant but because these ideas had not yet developed. In short, these social constructs began more than 1,000 years later, in ancient Greece. The Babylonians happily and productively did mathematics and solved problems without any of these relatively modern notions.

What was it all for?

@gracie.ham also asks how Pythagoras came up with his theorem. The short answer is: he didn’t.

Pythagoras of Samos (c. 570-495 BC) probably heard about the idea we now associate with his name while he was in Egypt. He may have been the person to introduce it to Greece, but we don’t really know.

Pythagoras didn’t use his theorem for anything practical. He was primarily interested in numerology and the mysticism of numbers, rather than the applications of mathematics.


Without modern tools, how do you make right angles just right? Ancient Hindu religious texts give instructions for making a rectangular fire altar using the 3-4-5 configuration with sides of length 3 and 4, and diagonal length 5. These measurements ensure that the altar has right angles in each corner.

A man sits at a fire altar
A rectangular fire altar. Madhu K / Wikipedia, CC BY-SA

Big questions

In the 19th century, the German mathematician Leopold Kronecker said “God made the integers, all else is the work of man”. I agree with that sentiment, at least for the positive integers — the whole numbers we count with — because the Babylonians didn’t believe in zero or negative numbers.

Mathematics has been happening for a very, very long time. Long before ancient Greece and Pythagoras.

Is it real? Most cultures agree about some basics, like the positive integers and the 3-4-5 right triangle. Just about everything else in mathematics is determined by the society in which you live.

Byung-Chul Han: smartphone e o “inferno dos iguais” (Outras Palavras)

outraspalavras.net

por El País Brasil – Publicado 14/10/2021 às 17:13 – Atualizado 14/10/2021 às 18:46


Por Byung-Chul Han, em entrevista a Sergio C. Fanjul, no El País

Com certa vertigem, o mundo material, feito de átomos e moléculas, de coisas que podemos tocar e cheirar, está se dissolvendo em um mundo de informação, de não-coisas, como observa o filósofo alemão de origem coreana Byung-Chul Han. Não-coisas que, ainda assim, continuamos desejando, comprando e vendendo, que continuam nos influenciando. O mundo digital cada vez se hibridiza de modo mais notório com o que ainda consideramos mundo real, ao ponto de confundirem-se entre si, fazendo a existência cada vez mais intangível e fugaz. O último livro do pensador, Não-coisas. Quebras no mundo de hoje, se une a uma série de pequenos ensaios em que o pensador sucesso de vendas (o chamaram de rockstar da filosofia) disseca minuciosamente as ansiedades que o capitalismo neoliberal nos produz.

Unindo citações frequentes aos grandes filósofos e elementos da cultura popular, os textos de Han transitam do que chamou de “a sociedade do cansaço”, em que vivemos esgotados e deprimidos pelas inapeláveis exigências da existência, à análise das novas formas de entretenimento que nos oferecem. Da psicopolítica, que faz com que as pessoas aceitem se render mansamente à sedução do sistema, ao desaparecimento do erotismo que Han credita ao narcisismo e exibicionismo atual, que proliferam, por exemplo, nas redes sociais: a obsessão por si mesmo faz com que os outros desapareçam e o mundo seja um reflexo de nossa pessoa. O pensador reivindica a recuperação do contato íntimo com a cotidianidade – de fato, é sabido que ele gosta de cultivar lentamente um jardim, trabalhos manuais, o silêncio. E se rebela contra “o desaparecimento dos rituais” que faz com que a comunidade desapareça e que nos transformemos em indivíduos perdidos em sociedades doentes e cruéis.

Byung-Chul Han aceitou esta entrevista como EL PAÍS, mas somente mediante um questionário por e-mail que foi respondido em alemão pelo filósofo e posteriormente traduzido e editado.

PERGUNTA. Como é possível que em um mundo obcecado pela hiperprodução eo hiperconsumo, ao mesmo tempo os objetos vão se dissolvendo e vamos rumo a um mundo de não-coisas?

RESPOSTA. Há, sem dúvida, uma hiperinflação de objetos que conduz a sua proliferação explosiva. Mas se trata de objetos descartáveis com os quais não estabelecemos laços afetivos. Hoje estamos obcecados não com as coisas, e sim com informações e dados, ou seja, não-coisas. Hoje somos todos infômanos. Chegou a se falar de datasexuais [pessoas que compilam e compartilham obsessivamente informação sobre sua vida pessoal].

P. Nesse mundo que o senhor descreve, de hiperconsumo e perda de laços, por que é importante ter “coisas queridas” e estabelecer rituais?

R. As coisas são os apoios que dão tranquilidade na vida. Hoje em dia estão em conjunto obscurecidas pelas informações. O smartphone não é uma coisa. Eu o caracterizo como o infômata que produz e processa informações. As informações são todo o contrário aos apoios que dão tranquilidade à vida. Vivem do estímulo da surpresa. Elas nos submergem em um turbilhão de atualidade. Também os rituais, como arquiteturas temporais, dão estabilidade à vida. A pandemia destruiu essas estruturas temporais. Pense no teletrabalho. Quando o tempo perde sua estrutura, a depressão começa a nos afetar.

P. Em seu livro se estabelece que, pela digitalização, nos transformaremos em homo ludens, focados mais no lazer do que no trabalho. Mas, com a precarização e a destruição do emprego, todos poderemos ter acesso a essa condição?

R. Falei de um desemprego digital que não é determinado pela conjuntura. A digitalização levará a um desemprego maciço. Esse desemprego representará um problema muito sério no futuro. O futuro humano consistirá na renda básica e nos jogos de computador? Um panorama desalentador. Com panem et circenses (pão e circo) Juvenal se refere à sociedade romana em que a ação política não é possível. As pessoas se mantêm contentes com alimentos gratuitos e jogos espetaculares. A dominação total é aquela em que as pessoas só se dedicam a jogar. A recente e hiperbólica série coreana da Netflix, Round 6, em que todo mundo só se dedica ao jogo, aponta nessa direção.

P. Em que sentido?

R. Essas pessoas estão totalmente endividadas e se entregam a esse jogo mortal que promete ganhos enormes. Round 6 representa um aspecto central do capitalismo em um formato extremo. Walter Benjamin já disse que o capitalismo representa o primeiro caso de um culto que não é expiatório, e sim nos endivida. No começo da digitalização se sonhava que ela substituiria o trabalho pelo jogo. Na verdade, o capitalismo digital explora impiedosamente a pulsão humana pelo jogo. Pense nas redes sociais, que incorporam elementos lúdicos para provocar o vício nos usuários.

P. De fato, o smatphone nos prometia certa liberdade… Não se transformou em uma longa corrente que nos aprisiona onde quer que estejamos?

R. O smartphone é hoje um lugar de trabalho digital e um confessionário digital. Todo dispositivo, toda técnica de dominação gera artigos cultuados que são utilizados à subjugação. É assim que a dominação se consolida. O smartphone é o artigo de culto da dominação digital. Como aparelho de subjugação age como um rosário e suas contas; é assim que mantemos o celular constantemente nas mãos. O like é o amém digital. Continuamos nos confessando. Por decisão própria, nos desnudamos. Mas não pedimos perdão, e sim que prestem atenção em nós.

P. Há quem tema que a internet das coisas possa significar algo assim como a rebelião dos objetos contra o ser humano.

R. Não exatamente. A smarthome [casa inteligente] com coisas interconectadas representa uma prisão digital. A smartbed [cama inteligente] com sensores prolonga a vigilância também durante as horas de sono. A vigilância vai se impondo de maneira crescente e sub-reptícia na vida cotidiana como se fosse o conveniente. As coisas informatizadas, ou seja, os infômatas, se revelam como informadores eficientes que nos controlam e dirigem constantemente.

P. O senhor descreveu como o trabalho vai ganhando caráter de jogo, as redes sociais, paradoxalmente, nos fazem sentir mais livres, o capitalismo nos seduz. O sistema conseguiu se meter dentro de nós para nos dominar de uma maneira até prazerosa para nós mesmos?

R. Somente um regime repressivo provoca a resistência. Pelo contrário, o regime neoliberal, que não oprime a liberdade, e sim a explora, não enfrenta nenhuma resistência. Não é repressor, e sim sedutor. A dominação se torna completa no momento em que se apresenta como a liberdade.

P. Por que, apesar da precariedade e da desigualdade crescentes, dos riscos existenciais etc., o mundo cotidiano nos países ocidentais parece tão bonito, hiperplanejado, e otimista? Por que não parece um filme distópico e cyberpunk?

R. O romance 1984 de George Orwell se transformou há pouco tempo em um sucesso de vendas mundial. As pessoas têm a sensação de que algo não anda bem com nossa zona de conforto digital. Mas nossa sociedade se parece mais a Admirável Mundo Novo de Aldous Huxley. Em 1984 as pessoas são controladas pela ameaça de machucá-las. Em Admirável Mundo Novo são controladas pela administração de prazer. O Estado distribui uma droga chamada “soma” para que todo mundo se sinta feliz. Esse é nosso futuro.

P. O senhor sugere que a Inteligência Artificial e o big data não são formas de conhecimento tão espantosas como nos fazem crer, e sim mais “rudimentares”. Por que?

R. O big data dispõe somente de uma forma muito primitiva de conhecimento, a saber, a correlação: acontece A, então ocorre B. Não há nenhuma compreensão. A Inteligência Artificial não pensa. A Inteligência Artificial não sente medo.

P. Blaise Pascal disse que a grande tragédia do ser humano é que não pode ficar quieto sem fazer nada. Vivemos em um culto à produtividade, até mesmo nesse tempo que chamamos “livre”. O senhor o chamou, com grande sucesso, de a sociedade do cansaço. Nós deveríamos nos fixar na recuperação do próprio tempo como um objetivo político?

R. A existência humana hoje está totalmente absorvida pela atividade. Com isso se faz completamente explorável. A inatividade volta a aparecer no sistema capitalista de dominação com incorporação de algo externo. É chamado tempo de ócio. Como serve para se recuperar do trabalho, permanece vinculado ao mesmo. Como derivada do trabalho constitui um elemento funcional dentro da produção. Precisamos de uma política da inatividade. Isso poderia servir para liberar o tempo das obrigações da produção e tornar possível um tempo de ócio verdadeiro.

P. Como se combina uma sociedade que tenta nos homogeneizar e eliminar as diferenças, com a crescente vontade das pessoas em ser diferentes dos outros, de certo modo, únicas?

R. Todo mundo hoje quer ser autêntico, ou seja, diferente dos outros. Dessa forma, estamos nos comparando o tempo todo com os outros. É justamente essa comparação que nos faz todos iguais. Ou seja: a obrigação de ser autênticos leva ao inferno dos iguais.

P. Precisamos de mais silêncio? Ficar mais dispostos a escutar o outro?

R. Precisamos que a informação se cale. Caso contrário, explorará nosso cérebro. Hoje entendemos o mundo através das informações. Assim a vivência presencial se perde. Nós nos desconectamos do mundo de modo crescente. Vamos perdendo o mundo. O mundo é mais do que a informação. A tela é uma representação pobre do mundo. Giramos em círculo ao redor de nós mesmos. O smartphone contribui decisivamente a essa percepção pobre de mundo. Um sintoma fundamental da depressão é a ausência de mundo.

P. A depressão é um dos mais alarmantes problemas de saúde contemporâneos. Como essa ausência do mundo opera?

R. Na depressão perdemos a relação com o mundo, com o outro. E nos afundamos em um ego difuso. Penso que a digitalização, e com ela o smartphone, nos transformam em depressivos. Há histórias de dentistas que contam que seus pacientes se aferram aos seus telefones quando o tratamento é doloroso. Por que o fazem? Graças ao celular sou consciente de mim mesmo. O celular me ajuda a ter a certeza de que vivo, de que existo. Dessa forma nos aferramos ao celular em situações críticas, como o tratamento dental. Eu lembro que quando era criança apertava a mão de minha mãe no dentista. Hoje a mãe não dá a mão à criança, e sim o celular para que se agarre a ele. A sustentação não vem dos outros, e sim de si mesmo. Isso nos adoece. Temos que recuperar o outro.

P. Segundo o filósofo Fredric Jameson é mais fácil imaginar o fim do mundo do que o fim do capitalismo. O senhor imaginou algum modo de pós-capitalismo agora que o sistema parece em decadência?

R. O capitalismo corresponde realmente às estruturas instintivas do homem. Mas o homem não é só um ser instintivo. Temos que domar, civilizar e humanizar o capitalismo. Isso também é possível. A economia social de mercado é uma demonstração. Mas nossa economia está entrando em uma nova época, a época da sustentabilidade.

P. O senhor se doutorou com uma tese sobre Heidegger, que explorou as formas mais abstratas de pensamento e cujos textos são muito obscuros até o profano. O senhor, entretanto, consegue aplicar esse pensamento abstrato a assuntos que qualquer um pode experimentar. A filosofia deve se ocupar mais do mundo em que a maior parte da população vive?

R. Michel Foucault define a filosofia como uma espécie de jornalismo radical, e se considera a si mesmo jornalista. Os filósofos deveriam se ocupar sem rodeios do hoje, da atualidade. Nisso sigo Foucault. Eu tento interpretar o hoje em pensamentos. Esses pensamentos são justamente o que nos fazem livres.

Is everything in the world a little bit conscious? (MIT Technology Review)

technologyreview.com

Christof Koch – August 25, 2021

The idea that consciousness is widespread is attractive to many for intellectual and, perhaps, also emotional reasons. But can it be tested? Surprisingly, perhaps it can.

Panpsychism is the belief that consciousness is found throughout the universe—not only in people and animals, but also in trees, plants, and bacteria. Panpsychists hold that some aspect of mind is present even in elementary particles. The idea that consciousness is widespread is attractive to many for intellectual and, perhaps, also emotional reasons. But can it be empirically tested? Surprisingly, perhaps it can. That’s because one of the most popular scientific theories of consciousness, integrated information theory (IIT), shares many—though not all—features of panpsychism.

As the American philosopher Thomas Nagel has argued, something is conscious if there is “something that it is like to be” that thing in the state that it is in. A human brain in a state of wakefulness feels like something specific. 

IIT specifies a unique number, a system’s integrated information, labeled by the Greek letter φ (pronounced phi). If φ is zero, the system does not feel like anything; indeed, the system does not exist as a whole, as it is fully reducible to its constituent components. The larger φ, the more conscious a system is, and the more irreducible. Given an accurate and complete description of a system, IIT predicts both the quantity and the quality of its experience (if any). IIT predicts that because of the structure of the human brain, people have high values of φ, while animals have smaller (but positive) values and classical digital computers have almost none.

A person’s value of φ is not constant. It increases during early childhood with the development of the self and may decrease with onset of dementia and other cognitive impairments. φ will fluctuate during sleep, growing larger during dreams and smaller in deep, dreamless states. 

IIT starts by identifying five true and essential properties of any and every conceivable conscious experience. For example, experiences are definite (exclusion). This means that an experience is not less than it is (experiencing only the sensation of the color blue but not the moving ocean that brought the color to mind), nor is it more than it is (say, experiencing the ocean while also being aware of the canopy of trees behind one’s back). In a second step, IIT derives five associated physical properties that any system—brain, computer, pine tree, sand dune—has to exhibit in order to feel like something. A “mechanism” in IIT is anything that has a causal role in a system; this could be a logical gate in a computer or a neuron in the brain. IIT says that consciousness arises only in systems of mechanisms that have a particular structure. To simplify somewhat, that structure must be maximally integrated—not accurately describable by breaking it into its constituent parts. It must also have cause-and-effect power upon itself, which is to say the current state of a given mechanism must constrain the future states of not only that particular mechanism, but the system as a whole. 

Given a precise physical description of a system, the theory provides a way to calculate the φ of that system. The technical details of how this is done are complicated, but the upshot is that one can, in principle, objectively measure the φ of a system so long as one has such a precise description of it. (We can compute the φ of computers because, having built them, we understand them precisely. Computing the φ of a human brain is still an estimate.)

Debating the nature of consciousness might at first sound like an academic exercise, but it has real and important consequences.

Systems can be evaluated at different levels—one could measure the φ of a sugar-cube-size piece of my brain, or of my brain as a whole, or of me and you together. Similarly, one could measure the φ of a silicon atom, of a particular circuit on a microchip, or of an assemblage of microchips that make up a supercomputer. Consciousness, according to the theory, exists for systems for which φ is at a maximum. It exists for all such systems, and only for such systems. 

The φ of my brain is bigger than the φ values of any of its parts, however one sets out to subdivide it. So I am conscious. But the φ of me and you together is less than my φ or your φ, so we are not “jointly” conscious. If, however, a future technology could create a dense communication hub between my brain and your brain, then such brain-bridging would create a single mind, distributed across four cortical hemispheres. 

Conversely, the φ of a supercomputer is less than the φs of any of the circuits composing it, so a supercomputer—however large and powerful—is not conscious. The theory predicts that even if some deep-learning system could pass the Turing test, it would be a so-called “zombie”—simulating consciousness, but not actually conscious. 

Like panpsychism, then, IIT considers consciousness an intrinsic, fundamental property of reality that is graded and most likely widespread in the tree of life, since any system with a non-zero amount of integrated information will feel like something. This does not imply that a bee feels obese or makes weekend plans. But a bee can feel a measure of happiness when returning pollen-laden in the sun to its hive. When a bee dies, it ceases to experience anything. Likewise, given the vast complexity of even a single cell, with millions of proteins interacting, it may feel a teeny-tiny bit like something. 

Debating the nature of consciousness might at first sound like an academic exercise, but it has real and important consequences. Most obviously, it matters to how we think about people in vegetative states. Such patients may groan or otherwise move unprovoked but fail to respond to commands to signal in a purposeful manner by moving their eyes or nodding. Are they conscious minds, trapped in their damaged body, able to perceive but unable to respond? Or are they without consciousness?

Evaluating such patients for the presence of consciousness is tricky. IIT proponents have developed a procedure that can test for consciousness in an unresponsive person. First they set up a network of EEG electrodes that can measure electrical activity in the brain. Then they stimulate the brain with a gentle magnetic pulse, and record the echoes of that pulse. They can then calculate a mathematical measure of the complexity of those echoes, called a perturbational complexity index (PCI).

In healthy, conscious individuals—or in people who have brain damage but are clearly conscious—the PCI is always above a particular threshold. On the other hand, 100% of the time, if healthy people are asleep, their PCI is below that threshold (0.31). So it is reasonable to take PCI as a proxy for the presence of a conscious mind. If the PCI of someone in a persistent vegetative state is always measured to be below this threshold, we can with confidence say that this person is not covertly conscious. 

This method is being investigated in a number of clinical centers across the US and Europe. Other tests seek to validate the predictions that IIT makes about the location and timing of the footprints of sensory consciousness in the brains of humans, nonhuman primates, and mice. 

Unlike panpsychism, the startling claims of IIT can be empirically tested. If they hold up, science may have found a way to cut through a knot that has puzzled philosophers for as long as philosophy has existed.

Christof Koch is the chief scientist of the MindScope program at the Allen Institute for Brain Science in Seattle.

The Mind issue

This story was part of our September 2021 issue

Uma breve leitura filosófica sobre essa outra alteridade: as plantas (IHU on-line)

IHU on-line

01 Julho 2021

“Mergulhar na vida das plantas permitir-nos-á dar os passos para nos descentrarmos do antropocentrismo vicioso. Sair de lá é um imperativo do nosso tempo, mas para isso é preciso redescobrir essa estranha proximidade e essa distância infinita com a alteridade do mundo vegetal. Sair do estatuto da classificação para respirar o ar que vem delas e retorna a elas. Restabelecer e reinventar a relação”, escreve Pedro Pablo Achondo Moya, teólogo e poeta, professor da Universidad Federico Santa María (Valparaíso, Chile), em artigo publicado por Endémico, 24-06-2021. A tradução é de Wagner Fernandes de Azevedo.

Eis o artigo.

O que somos diante de uma planta? O que é uma planta diante do humano e o que é capaz de transmiti-lo, ensiná-lo, comunicá-lo? As plantas estiveram ali desde muitíssimo antes de nós, mas parecia que apenas há algumas décadas e em poucos casos, séculos; o pensamento filosófico, a reflexão antropológica e a ecologia em relação ao humano, começaram a levá-las a sério. Hoje falamos de redes e vínculos, de entrelaçamentos e emaranhados. O não-humano e a alteridade das plantas cada vez mais vai tomando protagonismo no momento de compreender o mundo e de interpretar as relações que se estabelecem com tudo o que nos rodeia. Afinal de contas: não deveríamos começar a dialogar com elas e estabelecer novas alianças e vínculos?

Nesta breve reflexão queríamos compartilhar como esse outro – essa alteridade não-humana – pode ser hoje uma das engrenagens para repensar a vida na sua totalidade e redes diversas. Vale a pena voltar isso e dar o espalho necessário nestes tempos de crise multidimensional, onde como povo pensamos em um processo constituinte. Farei aludindo a alguns autores que se posicionam desde este lugar, o das plantas e da alteridade.

As plantas, segundo o filósofo canadense Michael Marder, que recentemente foi entrevistado em Endémico, têm sido estranhamente marginalizadas no pensamento. Tanto a filosofia como outras vertentes do pensamento ocidental, sobretudo as que mantiveram em uma margem conceitual a diferença dos animais e outros coabitantes do território. As plantas apenas foram consideradas na hora de interpretar o mundo ou, ao menos, conhecê-lo melhor. No entanto, isso foi mudando profundamente nas últimas décadas. No início de sua obra “Tu e Eu”, o filósofo judeu Martin Buber, considerado um dos precursores da filosofia da alteridade – que posteriormente conhecerá um dos seus pontos mais altos com Emmanuel Levinas – diz-nos: “contemplo uma árvore. Posso registrá-la como imagem […] Posso percebê-la como movimento […] posso classificá-la em uma espécie e observá-la…” e continua demonstrando que, em qualquer destes casos e outros, a árvore permanece como um objeto, seu objeto: de análise, de contemplação, de classificação. Porém, (e aqui começa a virada própria da filosofia da alteridade) é possível “que eu, ao contemplar a árvore, por graça própria e vontade, veja-me levado a entrar em relação com ele, e então, a árvore não será mais um isso” (2013, p. 14).

É o ato fundacional da relação. A árvore, a planta, o arbusto; esse outro começa recém a aparecer. Deixa de ser um objeto humanizado, um isso domesticado pelo olhar humano, o pensar humano, o dizer humano. Isso não é coisa banal, nem simples. Pois nossas próprias categorias de pensamento foram domesticadas por crenças, linguagens, ideias e conceitos. Fomos formados desde certas ontologias. Elas nos habitam e desde elas conhecemos e compreendemos o mundo. Não é aventurado dizer, que um dos fatores do colapso climático, as aberrações em matéria de justiça eco-social e a imobilidade estrutural para mudar política e eticamente, tem a ver com isto. Vemos como nos ensinaram a ver e nos parece impossível seguir aprendendo a olhar de outras maneiras e a partir dos outros e do outro.

E continua Buber “a árvore não é uma impressão, nem um jogo de minha imaginação, nem um valor que depende do estado de ânimo, mas sim que existe ante a mim e tem a ver comigo, como eu com ele, só que de outra forma” (2013, p. 15). Esta reflexão quase intuitiva é de uma força extraordinária. Esse outro avanço de mim me vê como outro. É inevitável pensar nas propostas do Perspectivismo Ameríndio do antropólogo Eduardo Viveiros de Castro. Nem tudo olha como os humanos olham.

A alteridade, pensar na alteridade e a partir da alteridade, nos coloca no lugar da estranheza e da familiaridade. Tem algo que nos une, que nos liga àquele outro, àquela planta, àquela floresta. Mas ao mesmo tempo há uma estranheza, uma distância infinita – diria Levinas – uma diferença absoluta. Foi Stefano Mancuso, um renomado neurobiólogo vegetal, que se surpreendeu com o fato de as ficções humanas sobre possíveis seres extraterrestres serem mais ou menos humanoides: com braços, alguns órgãos para olhar, uma espécie de boca ou pelo menos algo parecido com uma cabeça. Seu espanto consistia naquela projeção “humana” para esses seres de outros mundos, quando, se de fato existe “algo” totalmente “extraterrestre”, são as plantas. Uma alteridade na forma, aparência, funcionamento, ciclos, processos, adaptabilidade, longevidade, genética. Elas são os alienígenas que nos cercam e nos encantam. Lá estão elas em sua variedade e diversidade, em seu mistério e silêncio. Lá estão elas com sua outra inteligência, sua comunicação vegetal, sua extraordinária metamorfose – como Goethe percebeu em suas observações das plantas: “para frente ou para trás, a planta é sempre uma folha” (2015, p.117) – e seus enganos e seduções para conquistar e sobreviver.

Em “A Vida das Plantas”, o filósofo italiano Emanuele Coccia mergulha de forma notável na vida dessa alteridade vegetal. Para ele, questionar as plantas é conhecer o mundo, porque elas são as construtoras dele. Elas geram seu próprio mundo, “tudo que tocam, transformam em vida; da matéria, do ar, da luz do sol, fazem o que para os demais seres vivos seja um espaço a habitar, um mundo” (2017, p. 22). Tanto é que chega a dizer que “de um certo ponto de vista, as plantas nunca saíram do mar: trouxeram-no para onde não existia. Elas transformaram o universo em um imenso mar atmosférico e transmitiram seus hábitos marinhos a todos os seres. A fotossíntese nada mais é do que o processo cósmico de fluidificação do universo” (2017, p. 46).

Mergulhar na vida das plantas permitir-nos-á dar os passos para nos descentrarmos do antropocentrismo vicioso. Sair de lá é um imperativo do nosso tempo, mas para isso é preciso redescobrir essa estranha proximidade e essa distância infinita com a alteridade do mundo vegetal. Sair do estatuto da classificação para respirar o ar que vem delas e retorna a elas. Restabelecer e reinventar a relação. Compreender, com o auxílio da ciência, mas também de outros conhecimentos e abordagens, o que Marder denomina processos sub-orgânicos e agenciamentos supra-orgânicos (2016, p. 65), ou seja, seres que vivem embaixo da terra falando e se comunicando; enquanto balançam de seus inúmeros vidros e infinidade de folhas gerando um superorganismo vegetal. Aí, o próprio Marder sugere uma interpretação: nós também habitamos o micro e o macro, também geramos e somos gerados em sub e supra inter-relações. Somos individualidades, unicidades e, ao mesmo tempo, coletivos, enxames, massas, povos e tribos. Somos e nos configuramos nessas nossas redes, onde o não-humano (plantas, neste caso) é parte fundamental. Nunca mais deveríamos esquecer disto.

Reconhecer-nos nesta rede de alteridades permitirá uma melhor polinização humano-planta, uma fluidez na corresponsabilidade e na fecundação mútua. Se for verdade “que me realizo no tu; virando-me a ti, digo tu”, afirma Buber (2013, p.17); então também posso me voltar para o tu da árvore. A planta e sua alteridade me fazem quem eu sou, ao entrar em relação com ela e permitir que apareça, realmente, em seu ser vegetal, eu a deixo ser quem ela é. E aí, a planta se revela para nós.

Melhor citar o poeta Rilke: “Se quiseres conquistar a existência de uma árvore / Reveste-a de espaço interno, esse espaço / Que tem em seu ser em ti. Cerca-a de coações / Ela não tem limite, e só se torna realmente uma árvore / Quando se ordena no seio da tua renúncia”. Na renúncia do eu que projeta, do eu que domestica, do eu que transgride; essa alteridade simplesmente aparece: é uma árvore. Comentando este texto, Gastón Bachelard torna mais complexa a nossa reflexão ao dizer que: “a árvore precisa de ti para dar-lhe as tuas imagens superabundantes, alimentadas pelo teu espaço íntimo, por ‘esse espaço que tem o seu ser em ti’. Então a árvore e seu sonhador, juntos, são ordenados, eles crescem. No mundo dos sonhos, a árvore nunca é considerada acabada” (2000, p.176). Mais do que complicar, na realidade, ele explica a relação que se estabelece, desse jogo de idas e vindas entre o eu humano e o tu da árvore, entre o eu vegetal e o tu humano. Entre isso e tu. Um no outro, tentando “terminar”, completo, compreender aquela alteridade intransponível que nos escapa. Alteridade que de alguma forma nos habita. Esse tu da planta nunca é totalmente desconhecido. Pois ela tem parte do seu ser em mim. Pois bem, não será que ela, ao mesmo tempo, possui em seu ser uma parte do humano? Dessa maneira a relação se torna possível.

Mudar o rumo do antropocentrismo e da ruptura ou negação da relação é um dever para, como povo de povos, como nação humano-vegetal ou, melhor ainda, como território em co-construção e disputa; chegar a algo como uma Constituição Ecossocial, que depois permita e abra processos de geração de novas alianças e propostas territoriais. A Constituição Ecológica que esperamos – e o interessante trabalho da Convenção em diálogo cidadão – tem a dupla tarefa: mudar a linguagem antropocêntrica e suscitar que a alteridade das plantas (e de tudo o outro-que-humano) seja reconhecida, reformulada e manifestada como uma potência transformadora e uma matriz de conhecimento, como semente que vai se abrindo.

Referências

Bacherald, Gastón. (2000). La poética del espacio. Buenos Aires: FCE.

Buber, Martin. (2013). Yo y Tú. Y otros ensayos. Buenos Aires: Prometeo Libros.

Coccia, Emanuel. (2017). La vida de las plantas. Una metafísica de la mixtura. Buenos Aires: Miño y Dávila Editorial.

Goethe, J.W. von. (2015). La metamorfosis de las plantas. Barcelona: Editorial Pau de Damasc.

Mancuso, Stefano. (2017). El futuro es vegetal. Barcelona: Galaxia Gutenberg.

Marder, Michael. (2016). Grafts. Writings on plants. Minneapolis: Univocal.

Leia mais

He Wants to Save Classics From Whiteness. Can the Field Survive? (The New York Times Magazine)

Original article

Dan-el Padilla Peralta thinks classicists should knock ancient Greece and Rome off their pedestal — even if that means destroying their discipline.

Padilla at Princeton in January. Credit: D’Angelo Lovell Williams for The New York Times

By Rachel Poser

Feb. 2, 2021

In the world of classics, the exchange between Dan-el Padilla Peralta and Mary Frances Williams has become known simply as “the incident.” Their back-and-forth took place at a Society of Classical Studies conference in January 2019 — the sort of academic gathering at which nothing tends to happen that would seem controversial or even interesting to those outside the discipline. But that year, the conference featured a panel on “The Future of Classics,” which, the participants agreed, was far from secure. On top of the problems facing the humanities as a whole — vanishing class sizes caused by disinvestment, declining prominence and student debt — classics was also experiencing a crisis of identity. Long revered as the foundation of “Western civilization,” the field was trying to shed its self-imposed reputation as an elitist subject overwhelmingly taught and studied by white men. Recently the effort had gained a new sense of urgency: Classics had been embraced by the far right, whose members held up the ancient Greeks and Romans as the originators of so-called white culture. Marchers in Charlottesville, Va., carried flags bearing a symbol of the Roman state; online reactionaries adopted classical pseudonyms; the white-supremacist website Stormfront displayed an image of the Parthenon alongside the tagline “Every month is white history month.”

Padilla, a leading historian of Rome who teaches at Princeton and was born in the Dominican Republic, was one of the panelists that day. For several years, he has been speaking openly about the harm caused by practitioners of classics in the two millenniums since antiquity: the classical justifications of slavery, race science, colonialism, Nazism and other 20th-century fascisms. Classics was a discipline around which the modern Western university grew, and Padilla believes that it has sown racism through the entirety of higher education. Last summer, after Princeton decided to remove Woodrow Wilson’s name from its School of Public and International Affairs, Padilla was a co-author of an open letter that pushed the university to do more. “We call upon the university to amplify its commitment to Black people,” it read, “and to become, for the first time in its history, an anti-racist institution.” Surveying the damage done by people who lay claim to the classical tradition, Padilla argues, one can only conclude that classics has been instrumental to the invention of “whiteness” and its continued domination.

In recent years, like-minded classicists have come together to dispel harmful myths about antiquity. On social media and in journal articles and blog posts, they have clarified that contrary to right-wing propaganda, the Greeks and Romans did not consider themselves “white,” and their marble sculptures, whose pale flesh has been fetishized since the 18th century, would often have been painted in antiquity. They have noted that in fifth-century-B.C. Athens, which has been celebrated as the birthplace of democracy, participation in politics was restricted to male citizens; thousands of enslaved people worked and died in silver mines south of the city, and custom dictated that upper-class women could not leave the house unless they were veiled and accompanied by a male relative. They have shown that the concept of Western civilization emerged as a euphemism for “white civilization” in the writing of men like Lothrop Stoddard, a Klansman and eugenicist. Some classicists have come around to the idea that their discipline forms part of the scaffold of white supremacy — a traumatic process one described to me as “reverse red-pilling” — but they are also starting to see an opportunity in their position. Because classics played a role in constructing whiteness, they believed, perhaps the field also had a role to play in its dismantling.

On the morning of the panel, Padilla stood out among his colleagues, as he always did. He sat in a crisp white shirt at the front of a large conference hall at a San Diego Marriott, where most of the attendees wore muted shades of gray. Over the course of 10 minutes, Padilla laid out an indictment of his field. “If one were intentionally to design a discipline whose institutional organs and gatekeeping protocols were explicitly aimed at disavowing the legitimate status of scholars of color,” he said, “one could not do better than what classics has done.” Padilla’s vision of classics’ complicity in systemic injustice is uncompromising, even by the standards of some of his allies. He has condemned the field as “equal parts vampire and cannibal” — a dangerous force that has been used to murder, enslave and subjugate. “He’s on record as saying that he’s not sure the discipline deserves a future,” Denis Feeney, a Latinist at Princeton, told me. Padilla believes that classics is so entangled with white supremacy as to be inseparable from it. “Far from being extrinsic to the study of Greco-Roman antiquity,” he has written, “the production of whiteness turns on closer examination to reside in the very marrows of classics.”

When Padilla ended his talk, the audience was invited to ask questions. Williams, an independent scholar from California, was one of the first to speak. She rose from her seat in the front row and adjusted a standing microphone that had been placed in the center of the room. “I’ll probably offend all of you,” she began. Rather than kowtowing to criticism, Williams said, “maybe we should start defending our discipline.” She protested that it was imperative to stand up for the classics as the political, literary and philosophical foundation of European and American culture: “It’s Western civilization. It matters because it’s the West.” Hadn’t classics given us the concepts of liberty, equality and democracy?

‘There are some in the field who say: “Yes, we agree with your critique. Now let us go back to doing exactly what we’ve been doing.” ’

One panelist tried to interject, but Williams pressed on, her voice becoming harsh and staccato as the tide in the room moved against her. “I believe in merit. I don’t look at the color of the author.” She pointed a finger in Padilla’s direction. “You may have got your job because you’re Black,” Williams said, “but I would prefer to think you got your job because of merit.”

Discordant sounds went up from the crowd. Several people stood up from their seats and hovered around Williams at the microphone, seemingly unsure of whether or how to intervene. Padilla was smiling; it was the grimace of someone who, as he told me later, had been expecting something like this all along. At last, Williams ceded the microphone, and Padilla was able to speak. “Here’s what I have to say about the vision of classics that you outlined,” he said. “I want nothing to do with it. I hope the field dies that you’ve outlined, and that it dies as swiftly as possible.”

When Padilla was a child, his parents proudly referred to Santo Domingo, the capital of the Dominican Republic, as the “Athens of the New World” — a center of culture and learning. That idea had been fostered by Rafael Trujillo, the dictator who ruled the country from 1930 until his assassination in 1961. Like other 20th-century fascists, Trujillo saw himself, and his people, as the inheritors of a grand European tradition that originated in Greece and Rome. In a 1932 speech, he praised ancient Greece as the “mistress of beauty, rendered eternal in the impeccable whiteness of its marbles.” Trujillo’s veneration of whiteness was central to his message. By invoking the classical legacy, he could portray the residents of neighboring Haiti as darker and inferior, a campaign that reached its murderous peak in 1937 with the Parsley Massacre, or El Corte (“the Cutting”) in Spanish, in which Dominican troops killed as many as 30,000 Haitians and Black Dominicans, according to some estimates.

Padilla’s family didn’t talk much about their lives under the dictatorship, but he knew that his mother’s father had been beaten after arguing with some drunken Trujillistas. That grandfather, along with the rest of his mother’s relatives, were fishermen and sailors in Puerto Plata, a city on the coast; they lived in what Padilla describes as “immiserating poverty” but benefited from a degree of privilege in Dominican society because of their lighter skin. His father’s people, on the other hand, often joked that they were “black as night.” They had lived for generations in Pimentel, a city near the mountainous northeast where enslaved Africans had set up Maroon communities in the 1600s and 1700s, counting on the difficult terrain to give them a measure of safety. Like their counterparts in the United States, slavers in the Dominican Republic sometimes bestowed classical names on their charges as a mark of their civilizing mission, so the legacy of slavery — and its entanglement with classics — remains legible in the names of many Dominicans today. “Why are there Dominicans named Temístocles?” Padilla used to wonder as a kid. “Why is Manny Ramirez’s middle name Aristides?” Trujillo’s own middle name was Leónidas, after the Spartan king who martyred himself with 300 of his soldiers at Thermopylae, and who has become an icon of the far right. But in his early life, Padilla was aware of none of this. He only knew that he was Black like his father.

When Padilla was 4, he and his parents flew to the United States so that his mother, María Elena, could receive care for pregnancy complications at a New York City hospital. But after his brother, Yando, was born, the family decided to stay; they moved into an apartment in the Bronx and quietly tried to normalize their immigration status, spending their savings in the process. Without papers, it was hard to find steady work. Some time later, Padilla’s father returned to the Dominican Republic; he had been an accountant in Santo Domingo, and he was weary of poverty in the United States, where he had been driving a cab and selling fruit in the summers. That left María Elena with the two boys in New York. Because Yando was a U.S. citizen, she received $120 in food stamps and $85 in cash each month, but it was barely enough to feed one child, let alone a family of three. Over the next few months, María Elena and her sons moved between apartments in Manhattan, the Bronx and Queens, packing up and finding a new place each time they couldn’t make rent. For about three weeks, the landlord of a building in Queens let them stay in the basement as a favor, but when a sewage pipe burst over them as they were sleeping, María Elena found her way to a homeless shelter in Chinatown.

At the shelter, “the food tasted nasty,” and “pools of urine” marred the bathroom floor, Padilla wrote in his 2015 memoir, “Undocumented.” His one place of respite was the tiny library on the shelter’s top floor. Since leaving the Dominican Republic, Padilla had grown curious about Dominican history, but he couldn’t find any books about the Caribbean on the library’s shelves. What he did find was a slim blue-and-white textbook titled “How People Lived in Ancient Greece and Rome.” “Western civilization was formed from the union of early Greek wisdom and the highly organized legal minds of early Rome,” the book began. “The Greek belief in a person’s ability to use his powers of reason, coupled with Roman faith in military strength, produced a result that has come to us as a legacy, or gift from the past.” Thirty years later, Padilla can still recite those opening lines. “How many times have I taken an ax to this over the last decade of my career?” he said to me. “But at the moment of the initial encounter, there was something energizing about it.” Padilla took the textbook back to the room he shared with his mother and brother and never returned it to the library.

One day in the summer of 1994, a photographer named Jeff Cowen, who was teaching art at a shelter in Bushwick, where María Elena and the boys had been transferred, noticed 9-year-old Padilla tucked away by himself, reading a biography of Napoleon Bonaparte. “The kids were running around like crazy on their after-lunch sugar high, and there was a boy sitting in the corner with this enormous tome,” Cowen told me. “He stood up and shook my hand like a little gentleman, speaking like he’s some kind of Ivy League professor.” Cowen was taken aback. “I was really struggling at the time. I was living in an illegal building without a toilet, so I wasn’t really looking to be a do-gooder,” he said. “But within five minutes, it was obvious that this kid deserved the best education he could get. It was a responsibility.”

Dan-el Padilla Peralta in 1994 at the Bushwick shelter where he lived with his mother and younger brother.
Dan-el Padilla Peralta in 1994 at the Bushwick shelter where he lived with his mother and younger brother.Credit…Jeff Cowen

Cowen became a mentor to Padilla, and then his godfather. He visited the shelter with books and brain teasers, took Padilla and Yando roller-skating in Central Park and eventually helped Padilla apply to Collegiate, one of New York City’s elite prep schools, where he was admitted with a full scholarship. María Elena, elated, photocopied his acceptance letter and passed it around to her friends at church. At Collegiate, Padilla began taking Latin and Greek and found himself overwhelmed by the emotive power of classical texts; he was captivated by the sting of Greek philosophy, the heat and action of epic. Padilla told none of his new friends that he was undocumented. “There were some conversations I simply wasn’t ready to have,” he has said in an interview. When his classmates joked about immigrants, Padilla sometimes thought of a poem he had read by the Greek lyricist Archilochus, about a soldier who throws his shield in a bush and flees the battlefield. “At least I got myself safely out,” the soldier says. “Why should I care for that shield? Let it go. Some other time I’ll find another no worse.” Don’t expose yourself, he thought. There would be other battles.

Years passed before Padilla started to question the way the textbook had presented the classical world to him. He was accepted on a full scholarship to Princeton, where he was often the only Black person in his Latin and Greek courses. “The hardest thing for me as I was making my way into the discipline as a college student was appreciating how lonely I might be,” Padilla told me. In his sophomore year, when it came time to select a major, the most forceful resistance to his choice came from his close friends, many of whom were also immigrants or the children of immigrants. They asked Padilla questions he felt unprepared to answer. What are you doing with this blanquito stuff? How is this going to help us? Padilla argued that he and others shouldn’t shun certain pursuits just because the world said they weren’t for Black and brown people. There was a special joy and vindication in upending their expectations, but he found he wasn’t completely satisfied by his own arguments. The question of classics’ utility was not a trivial one. How could he take his education in Latin and Greek and make it into something liberatory? “That became the most urgent question that guided me through my undergraduate years and beyond,” Padilla said.

After graduating as Princeton’s 2006 salutatorian, Padilla earned a master’s degree from Oxford and a doctorate from Stanford. By then, more scholars than ever were seeking to understand not only the elite men who had written the surviving works of Greek and Latin literature, but also the ancient people whose voices were mostly silent in the written record: women, the lower classes, enslaved people and immigrants. Courses on gender and race in antiquity were becoming common and proving popular with students, but it wasn’t yet clear whether their imprint on the discipline would last. “There are some in the field,” Ian Morris, an adviser of Padilla’s at Stanford, told me, “who say: ‘Yes, we agree with your critique. Now let us go back to doing exactly what we’ve been doing.’” Reformers had learned from the old debates around “Black Athena” — Martin Bernal’s trilogy positing African and Semitic influence on ancient Greek culture — just how resistant some of their colleagues were to acknowledging the field’s role in whitewashing antiquity. “Classicists generally identify as liberal,” Joel Christensen, a professor of Greek literature at Brandeis University, told me. “But we are able to do that because most of the time we’re not in spaces or with people who push us about our liberalism and what that means.”

Thinking of his family’s own history, Padilla became interested in Roman slavery. Decades of research had focused on the ability of enslaved people to transcend their status through manumission, celebrating the fact that the buying and granting of freedom was much more common in Rome than in other slaveholding societies. But there were many who stood no chance of being freed, particularly those who worked in the fields or the mines, far from centers of power. “We have so many testimonies for how profoundly degrading enslavement was,” Padilla told me. Enslaved people in ancient Rome could be tortured and crucified; forced into marriage; chained together in work gangs; made to fight gladiators or wild animals; and displayed naked in marketplaces with signs around their necks advertising their age, character and health to prospective buyers. Owners could tattoo their foreheads so they could be recognized and captured if they tried to flee. Temple excavations have uncovered clay dedications from escapees, praying for the gods to remove the disfiguring marks from their faces. Archaeologists have also found metal collars riveted around the necks of skeletons in burials of enslaved people, among them an iron ring with a bronze tag preserved in the Museo Nazionale in Rome that reads: “I have run away; hold me. When you have brought me back to my master Zoninus, you will receive a gold coin.”

By 2015, when Padilla arrived at the Columbia Society of Fellows as a postdoctoral researcher, classicists were no longer apologists for ancient slavery, but many doubted that the inner worlds of enslaved people were recoverable, because no firsthand account of slavery had survived the centuries. That answer did not satisfy Padilla. He had begun to study the trans-Atlantic slave trade, which had shaped his mother’s mystical brand of Catholicism. María Elena moved through a world that was haunted by spirits, numinous presences who could give comfort and advice or demand sacrifice and appeasement. For a while, when Padilla was in high school, his mother invited a santero and his family to live with them at their Section 8 apartment in Harlem, where the man would conjure spirits that seethed at Padilla for his bad behavior. Padilla realized that his mother’s conception of the dead reminded him of the Romans’, which gave him an idea. In 2017, he published a paper in the journal Classical Antiquity that compared evidence from antiquity and the Black Atlantic to draw a more coherent picture of the religious life of the Roman enslaved. “It will not do merely to adopt a pose of ‘righteous indignation’ at the distortions and gaps in the archive,” he wrote. “There are tools available for the effective recovery of the religious experiences of the enslaved, provided we work with these tools carefully and honestly.”

Padilla began to feel that he had lost something in devoting himself to the classical tradition. As James Baldwin observed 35 years before, there was a price to the ticket. His earlier work on the Roman senatorial classes, which earned him a reputation as one of the best Roman historians of his generation, no longer moved him in the same way. Padilla sensed that his pursuit of classics had displaced other parts of his identity, just as classics and “Western civilization” had displaced other cultures and forms of knowledge. Recovering them would be essential to dismantling the white-supremacist framework in which both he and classics had become trapped. “I had to actively engage in the decolonization of my mind,” he told me. He revisited books by Frantz Fanon, Orlando Patterson and others working in the traditions of Afro-pessimism and psychoanalysis, Caribbean and Black studies. He also gravitated toward contemporary scholars like José Esteban Muñoz, Lorgia García Peña and Saidiya Hartman, who speak of race not as a physical fact but as a ghostly system of power relations that produces certain gestures, moods, emotions and states of being. They helped him think in more sophisticated terms about the workings of power in the ancient world, and in his own life.

Around the time that Padilla began working on the paper, Donald Trump made his first comments on the presidential campaign trail about Mexican “criminals, drug dealers, rapists” coming into the country. Padilla, who spent the previous 20 years dealing with an uncertain immigration status, had just applied for a green card after celebrating his marriage to a social worker named Missy from Sparta, N.J. Now he watched as alt-right figures like Richard Spencer, who had fantasized about creating a “white ethno-state on the North American continent” that would be “a reconstitution of the Roman Empire,” rose to national prominence. In response to rising anti-immigrant sentiment in Europe and the United States, Mary Beard, perhaps the most famous classicist alive, wrote in The Wall Street Journal that the Romans “would have been puzzled by our modern problems with migration and asylum,” because the empire was founded on the “principles of incorporation and of the free movement of people.”

‘I’m not interested in demolition for demolition’s sake. I want to build something.’

Padilla found himself frustrated by the manner in which scholars were trying to combat Trumpian rhetoric. In November 2015, he wrote an essay for Eidolon, an online classics journal, clarifying that in Rome, as in the United States, paeans to multiculturalism coexisted with hatred of foreigners. Defending a client in court, Cicero argued that “denying foreigners access to our city is patently inhumane,” but ancient authors also recount the expulsions of whole “suspect” populations, including a roundup of Jews in 139 B.C., who were not considered “suitable enough to live alongside Romans.” Padilla argues that exposing untruths about antiquity, while important, is not enough: Explaining that an almighty, lily-white Roman Empire never existed will not stop white nationalists from pining for its return. The job of classicists is not to “point out the howlers,” he said on a 2017 panel. “To simply take the position of the teacher, the qualified classicist who knows things and can point to these mistakes, is not sufficient.” Dismantling structures of power that have been shored up by the classical tradition will require more than fact-checking; it will require writing an entirely new story about antiquity, and about who we are today.

To find that story, Padilla is advocating reforms that would “explode the canon” and “overhaul the discipline from nuts to bolts,” including doing away with the label “classics” altogether. Classics was happy to embrace him when he was changing the face of the discipline, but how would the field react when he asked it to change its very being? The way it breathed and moved? “Some students and some colleagues have told me this is either too depressing or it’s sort of menacing in a way,” he said. “My only rejoinder is that I’m not interested in demolition for demolition’s sake. I want to build something.”

One day last February, shortly before the pandemic ended in-person teaching, I visited Padilla at Princeton. Campus was quiet and morose, the silences quivering with early-term nerves. A storm had swept the leaves from the trees and the color from the sky, which was now the milky gray of laundry water, and the air was so heavy with mist that it seemed to be blurring the outlines of the buildings. That afternoon, Padilla was teaching a Roman-history course in one of the oldest lecture halls at the university, a grand, vaulted room with creaking floorboards and mullioned windows. The space was not designed for innovative pedagogy. Each wooden chair was bolted to the floor with a paddle-shaped extension that served as a desk but was barely big enough to hold a notebook, let alone a laptop. “This was definitely back in the day when the students didn’t even take notes,” one student said as she sat down. “Like, ‘My dad’s going to give me a job.’”

Since returning to campus as a professor in 2016, Padilla has been working to make Princeton’s classics department a more welcoming place for students like him — first-generation students and students of color. In 2018, the department secured funding for a predoctoral fellowship to help a student with less exposure to Latin and Greek enter the Ph.D. program. That initiative, and the draw of Padilla as a mentor, has contributed to making Princeton’s graduate cohort one of the most diverse in the country. Pria Jackson, a Black predoctoral fellow who is the daughter of a mortician from New Mexico, told me that before she came to Princeton, she doubted that she could square her interest in classics with her commitment to social justice. “I didn’t think that I could do classics and make a difference in the world the way that I wanted to,” she said. “My perception of what it could do has changed.”

Padilla’s Roman-history course was a standard introductory survey, something the university had been offering for decades, if not centuries, but he was not teaching it in the standard way. He was experimenting with role play in order to prompt his students to imagine what it was like to be subjects of an imperial system. The previous week, he asked them to recreate a debate that took place in the Roman Senate in A.D. 15 about a proposed waterworks project that communities in central Italy feared would change the flow of the Tiber River, destroying animal habitats and flooding old shrines. (Unlike the Senate, the Princeton undergraduates decided to let the project go ahead as planned.) Today’s situation was inspired by the crises of succession that threatened to tear the early empire apart. Out of the 80 students in the lecture, Padilla had assigned four to be young military commanders — claimants vying for the throne — and four to be wealthy Roman senators; the rest were split between the Praetorian Guard and marauding legionaries whose swords could be bought in exchange for money, land and honors. It was designed to help his students “think as capaciously as possible about the many lives, human and nonhuman, that are touched by the shift from republic to empire.”

Padilla stood calmly behind the lectern as students filed into the room, wearing rectangular-framed glasses low on his nose and a maroon sweater over a collared shirt. The stillness of his body only heightened the sense of his mind churning. “He carries a big stick without having to show it off,” Cowen, Padilla’s childhood mentor, told me. “He’s kind of soft on the outside but very hard on the inside.” Padilla speaks in the highly baroque language of the academy — a style that can seem so deliberate as to function as a kind of protective armor. It is the flinty, guarded manner of someone who has learned to code-switch, someone who has always been aware that it is not only what he says but also how he says it that carries meaning. Perhaps it is for that reason that Padilla seems most at ease while speaking to students, when his phrasing loses some of its formality and his voice takes on the incantatory cadence of poetry. “Silence,” he said once the room had quieted, “my favorite sound.”

Padilla called the claimants up to the front of the room. At first, they stood uncertainly on the dais, like adolescents auditioning for a school play. Then, slowly, they moved into the rows of wooden desks. I watched as one of them, a young man wearing an Army-green football T-shirt that said “Support Our Troops,” propositioned a group of legionaries. “I’ll take land from non-Romans and give it to you, grant you citizenship,” he promised them. As more students left their seats and began negotiating, bids and counterbids reverberated against the stone walls. Not everyone was taking it seriously. At one point, another claimant approached a blue-eyed legionary in a lacrosse sweatshirt to ask what it would take to gain his support. “I just want to defend my right to party,” he responded. “Can I get a statue erected to my mother?” someone else asked. A stocky blond student kept charging to the front of the room and proposing that they simply “kill everybody.” But Padilla seemed energized by the chaos. He moved from group to group, sowing discord. “Why let someone else take over?” he asked one student. If you are a soldier or a peasant who is unhappy with imperial governance, he told another, how do you resist? “What kinds of alliances can you broker?”

Padilla teaching Roman history at Princeton in 2016.
Padilla teaching Roman history at Princeton in 2016.Credit…Princeton University/Office of Communications/Denise Applewhite

Over the next 40 minutes, there were speeches, votes, broken promises and bloody conflicts. Several people were assassinated. Eventually it seemed as though two factions were coalescing, and a count was called. The young man in the football shirt won the empire by seven votes, and Padilla returned to the lectern. “What I want to be thinking about in the next few weeks,” he told them, “is how we can be telling the story of the early Roman Empire not just through a variety of sources but through a variety of persons.” He asked the students to consider the lives behind the identities he had assigned them, and the way those lives had been shaped by the machinery of empire, which, through military conquest, enslavement and trade, creates the conditions for the large-scale movement of human beings.

Once the students had left the room, accompanied by the swish of umbrellas and waterproof synthetics, I asked Padilla why he hadn’t assigned any slave roles. Tracing his fingers along the crown of his head, he told me he had thought about it. It troubled him that he might be “re-enacting a form of silencing” by avoiding enslaved characters, given the fact that slavery was “arguably the most ubiquitous feature of the Roman imperial system.” As a historian, he knew that the assets at the disposal of the four wealthy senators — the 100 million sesterces he had given them to back one claimant over another — would have been made up in large part of the enslaved who worked in their mines and plowed the fields of their country estates. Was it harmful to encourage students to imagine themselves in roles of such comfort, status and influence, when a vast majority of people in the Roman world would never have been in a position to be a senator? But ultimately, he decided that leaving enslaved characters out of the role play was an act of care. “I’m not yet ready to turn to a student and say, ‘You are going to be a slave.’”

Even before “the incident,” Padilla was a target of right-wing anger because of the blistering language he uses and, many would say, because of the body he inhabits. In the aftermath of his exchange with Williams, which was covered in the conservative media, Padilla received a series of racist emails. “Maybe African studies would suit you better if you can’t hope with the reality of how advanced Europeans were,” one read. “You could figure out why the wheel had never made it sub-Saharan African you meathead. Lucky for you, your black, because you have little else on offer.” Breitbart ran a story accusing Padilla of “killing” classics. “If there was one area of learning guaranteed never to be hijacked by the forces of ignorance, political correctness, identity politics, social justice and dumbing down, you might have thought it would be classics,” it read. “Welcome, barbarians! The gates of Rome are wide open!”

Privately, even some sympathetic classicists worry that Padilla’s approach will only hasten the field’s decline. “I’ve spoken to undergrad majors who say that they feel ashamed to tell their friends they’re studying classics,” Denis Feeney, Padilla’s colleague at Princeton, told me. “I think it’s sad.” He noted that the classical tradition has often been put to radical and disruptive uses. Civil rights movements and marginalized groups across the world have drawn inspiration from ancient texts in their fights for equality, from African-Americans to Irish Republicans to Haitian revolutionaries, who viewed their leader, Toussaint L’Ouverture, as a Black Spartacus. The heroines of Greek tragedy — untamed, righteous, destructive women like Euripides’ Medea — became symbols of patriarchal resistance for feminists like Simone de Beauvoir, and the descriptions of same-sex love in the poetry of Sappho and in the Platonic dialogues gave hope and solace to gay writers like Oscar Wilde.

“I very much admire Dan-el’s work, and like him, I deplore the lack of diversity in the classical profession,” Mary Beard told me via email. But “to ‘condemn’ classical culture would be as simplistic as to offer it unconditional admiration.” She went on: “My line has always been that the duty of the academic is to make things seem more complicated.” In a 2019 talk, Beard argued that “although classics may become politicized, it doesn’t actually have a politics,” meaning that, like the Bible, the classical tradition is a language of authority — a vocabulary that can be used for good or ill by would-be emancipators and oppressors alike. Over the centuries, classical civilization has acted as a model for people of many backgrounds, who turned it into a matrix through which they formed and debated ideas about beauty, ethics, power, nature, selfhood, citizenship and, of course, race. Anthony Grafton, the great Renaissance scholar, put it this way in his preface to “The Classical Tradition”: “An exhaustive exposition of the ways in which the world has defined itself with regard to Greco-Roman antiquity would be nothing less than a comprehensive history of the world.”

How these two old civilizations became central to American intellectual life is a story that begins not in antiquity, and not even in the Renaissance, but in the Enlightenment. Classics as we know it today is a creation of the 18th and 19th centuries. During that period, as European universities emancipated themselves from the control of the church, the study of Greece and Rome gave the Continent its new, secular origin story. Greek and Latin writings emerged as a competitor to the Bible’s moral authority, which lent them a liberatory power. Figures like Diderot and Hume derived some of their ideas on liberty from classical texts, where they found declarations of political and personal freedoms. One of the most influential was Pericles’ funeral oration over the graves of the Athenian war dead in 431 B.C., recorded by Thucydides, in which the statesman praises his “glorious” city for ensuring “equal justice to all.” “Our government does not copy our neighbors’,” he says, “but is an example to them. It is true that we are called a democracy, for the administration is in the hands of the many and not of the few.”

Admiration for the ancients took on a fantastical, unhinged quality, like a strange sort of mania. Men draped themselves in Roman togas to proclaim in public, signed their letters with the names of famous Romans and filled etiquette manuals, sermons and schoolbooks with lessons from the classical past. Johann Joachim Winckelmann, a German antiquarian of the 18th century, assured his countrymen that “the only way for us to become great, or even inimitable if possible, is to imitate the Greeks.” Winckelmann, who is sometimes called the “father of art history,” judged Greek marble sculpture to be the summit of human achievement — unsurpassed by any other society, ancient or modern. He wrote that the “noble simplicity and quiet grandeur” of Athenian art reflected the “freedom” of the culture that produced it, an entanglement of artistic and moral value that would influence Hegel’s “Aesthetics” and appear again in the poetry of the Romantics. “Beauty is truth, truth beauty,” Keats wrote in “Ode on a Grecian Urn,” “that is all/Ye know on earth, and all ye need to know.”

‘I think that the politics of the living are what constitute classics as a site for productive inquiry. When folks think of classics, I would want them to think about folks of color.’

Historians stress that such ideas cannot be separated from the discourses of nationalism, colorism and progress that were taking shape during the modern colonial period, as Europeans came into contact with other peoples and their traditions. “The whiter the body is, the more beautiful it is,” Winkelmann wrote. While Renaissance scholars were fascinated by the multiplicity of cultures in the ancient world, Enlightenment thinkers created a hierarchy with Greece and Rome, coded as white, on top, and everything else below. “That exclusion was at the heart of classics as a project,” Paul Kosmin, a professor of ancient history at Harvard, told me. Among those Enlightenment thinkers were many of America’s founding fathers. Aristotle’s belief that some people were “slaves by nature” was welcomed with special zeal in the American South before the Civil War, which sought to defend slavery in the face of abolitionist critique. In “Notes on the State of Virginia,” Thomas Jefferson wrote that despite their condition in life, Rome’s enslaved showed themselves to be the “rarest artists” who “excelled too at science, insomuch as to be usually employed as tutors to their master’s children.” The fact that Africans had not done the same, he argued, proved that the problem was their race.

Jefferson, along with most wealthy young men of his time, studied classics at college, where students often spent half their time reading and translating Greek and Roman texts. “Next to Christianity,” writes Caroline Winterer, a historian at Stanford, “the central intellectual project in America before the late 19th century was classicism.” Of the 2.5 million people living in America in 1776, perhaps only 3,000 had gone to college, but that number included many of the founders. They saw classical civilization as uniquely educative — a “lamp of experience,” in the words of Patrick Henry, that could light the path to a more perfect union. However true it was, subsequent generations would come to believe, as Hannah Arendt wrote in “On Revolution,” that “without the classical example … none of the men of the Revolution on either side of the Atlantic would have possessed the courage for what then turned out to be unprecedented action.”

While the founding fathers chose to emulate the Roman republic, fearful of the tyranny of the majority, later generations of Americans drew inspiration from Athenian democracy, particularly after the franchise was extended to nearly all white men regardless of property ownership in the early decades of the 1800s. Comparisons between the United States and the Roman Empire became popular as the country emerged as a global power. Even after Latin and Greek were struck from college-entrance exams, the proliferation of courses on “great books” and Western civilization, in which classical texts were read in translation, helped create a coherent national story after the shocks of industrialization and global warfare. The project of much 20th-century art and literature was to forge a more complicated relationship with Greece and Rome, but even as the classics were pulled apart, laughed at and transformed, they continued to form the raw material with which many artists shaped their visions of modernity.

Over the centuries, thinkers as disparate as John Adams and Simone Weil have likened classical antiquity to a mirror. Generations of intellectuals, among them feminist, queer and Black scholars, have seen something of themselves in classical texts, flashes of recognition that held a kind of liberatory promise. Daniel Mendelsohn, a gay classicist and critic, discovered his sexuality at 12 while reading historical fiction about the life of Alexander the Great. “Until that moment,” he wrote in The New Yorker in 2013, “I had never seen my secret feelings reflected anywhere.” But the idea of classics as a mirror may be as dangerous as it is seductive. The language that is used to describe the presence of classical antiquity in the world today — the classical tradition, legacy or heritage — contains within it the idea of a special, quasi-genetic relationship. In his lecture “There Is No Such Thing as Western Civilization,” Kwame Anthony Appiah (this magazine’s Ethicist columnist) mockingly describes the belief in such a kinship as the belief in a “golden nugget” of insight — a precious birthright and shimmering sign of greatness — that white Americans and Europeans imagine has been passed down to them from the ancients. That belief has been so deeply held that the philosopher John Stuart Mill could talk about the Battle of Marathon, in which the Greeks defeated the first Persian invasion in 490 B.C., as one of the most important events in “English history.”

To see classics the way Padilla sees it means breaking the mirror; it means condemning the classical legacy as one of the most harmful stories we’ve told ourselves. Padilla is wary of colleagues who cite the radical uses of classics as a way to forestall change; he believes that such examples have been outmatched by the field’s long alliance with the forces of dominance and oppression. Classics and whiteness are the bones and sinew of the same body; they grew strong together, and they may have to die together. Classics deserves to survive only if it can become “a site of contestation” for the communities who have been denigrated by it in the past. This past semester, he co-taught a course, with the Activist Graduate School, called “Rupturing Tradition,” which pairs ancient texts with critical race theory and strategies for organizing. “I think that the politics of the living are what constitute classics as a site for productive inquiry,” he told me. “When folks think of classics, I would want them to think about folks of color.” But if classics fails his test, Padilla and others are ready to give it up. “I would get rid of classics altogether,” Walter Scheidel, another of Padilla’s former advisers at Stanford, told me. “I don’t think it should exist as an academic field.”

One way to get rid of classics would be to dissolve its faculties and reassign their members to history, archaeology and language departments. But many classicists are advocating softer approaches to reforming the discipline, placing the emphasis on expanding its borders. Schools including Howard and Emory have integrated classics with Ancient Mediterranean studies, turning to look across the sea at Egypt, Anatolia, the Levant and North Africa. The change is a declaration of purpose: to leave behind the hierarchies of the Enlightenment and to move back toward the Renaissance model of the ancient world as a place of diversity and mixture. “There’s a more interesting story to be told about the history of what we call the West, the history of humanity, without valorizing particular cultures in it,” said Josephine Quinn, a professor of ancient history at Oxford. “It seems to me the really crucial mover in history is always the relationship between people, between cultures.” Ian Morris put it more bluntly. “Classics is a Euro-American foundation myth,” Morris said to me. “Do we really want that sort of thing?”

For many, inside the academy and out, the answer to that question is yes. Denis Feeney, Padilla’s colleague at Princeton, believes that society would “lose a great deal” if classics was abandoned. Feeney is 65, and after he retires this year, he says, his first desire is to sit down with Homer again. “In some moods, I feel that this is just a moment of despair, and people are trying to find significance even if it only comes from self-accusation,” he told me. “I’m not sure that there is a discipline that is exempt from the fact that it is part of the history of this country. How distinctly wicked is classics? I don’t know that it is.” Amy Richlin, a feminist scholar at the University of California, Los Angeles, who helped lead the turn toward the study of women in the Roman world, laughed when I mentioned the idea of breaking up classics departments in the Ivy League. “Good luck getting rid of them,” she said. “These departments have endowments, and they’re not going to voluntarily dissolve themselves.” But when I pressed her on whether it was desirable, if not achievable, she became contemplative. Some in the discipline, particularly graduate students and untenured faculty members, worry that administrators at small colleges and public universities will simply use the changes as an excuse to cut programs. “One of the dubious successes of my generation is that it did break the canon,” Richlin told me. “I don’t think we could believe at the time that we would be putting ourselves out of business, but we did.” She added: “If they blew up the classics departments, that would really be the end.”

‘I’m not sure that there is a discipline that is exempt from the fact that it is part of the history of this country. How distinctly wicked is classics? I don’t know that it is.’

Padilla has said that he “cringes” when he remembers his youthful desire to be transformed by the classical tradition. Today he describes his discovery of the textbook at the Chinatown shelter as a sinister encounter, as though the book had been lying in wait for him. He compares the experience to a scene in one of Frederick Douglass’s autobiographies, when Mr. Auld, Douglass’s owner in Baltimore, chastises his wife for helping Douglass learn to read: “ ‘Now,’ said he, ‘if you teach that nigger (speaking of myself) how to read, there would be no keeping him. It would forever unfit him to be a slave.’” In that moment, Douglass says he understood that literacy was what separated white men from Black — “a new and special revelation, explaining dark and mysterious things.” “I would at times feel that learning to read had been a curse rather than a blessing,” Douglass writes. “It had given me a view of my wretched condition, without the remedy.” Learning the secret only deepened his sense of exclusion.

Padilla, like Douglass, now sees the moment of absorption into the classical, literary tradition as simultaneous with his apprehension of racial difference; he can no longer find pride or comfort in having used it to bring himself out of poverty. He permits himself no such relief. “Claiming dignity within this system of structural oppression,” Padilla has said, “requires full buy-in into its logic of valuation.” He refuses to “praise the architects of that trauma as having done right by you at the end.”

Last June, as racial-justice protests unfolded across the nation, Padilla turned his attention to arenas beyond classics. He and his co-authors — the astrophysicist Jenny Greene, the literary theorist Andrew Cole and the poet Tracy K. Smith — began writing their open letter to Princeton with 48 proposals for reform. “Anti-Blackness is foundational to America,” the letter began. “Indifference to the effects of racism on this campus has allowed legitimate demands for institutional support and redress in the face of microaggression and outright racist incidents to go long unmet.” Signed by more than 300 members of the faculty, the letter was released publicly on the Fourth of July. In response, Joshua Katz, a prominent Princeton classicist, published an op-ed in the online magazine Quillette in which he referred to the Black Justice League, a student group, as a “terrorist organization” and warned that certain proposals in the faculty letter would “lead to civil war on campus.”

Few in the academy cared to defend Katz’s choice of words, but he was far from the only person who worried that some of the proposals were unwise, if not dangerous. Most controversial was the idea of establishing a committee that would “oversee the investigation and discipline of racist behaviors, incidents, research and publication” — a body that many viewed as a threat to free academic discourse. “I’m concerned about how you define what racist research is,” one professor told me. “That’s a line that’s constantly moving. Punishing people for doing research that other people think is racist just does not seem like the right response.” But Padilla believes that the uproar over free speech is misguided. “I don’t see things like free speech or the exchange of ideas as ends in themselves,” he told me. “I have to be honest about that. I see them as a means to the end of human flourishing.”

On Jan. 6, Padilla turned on the television minutes after the windows of the Capitol were broken. In the crowd, he saw a man in a Greek helmet with TRUMP 2020 painted in white. He saw a man in a T-shirt bearing a golden eagle on a fasces — symbols of Roman law and governance — below the logo 6MWE, which stands for “Six Million Wasn’t Enough,” a reference to the number of Jews murdered in the Holocaust. He saw flags embroidered with the phrase that Leonidas is said to have uttered when the Persian king ordered him to lay down his arms: Molon labe, classical Greek for “Come and take them,” which has become a slogan of American gun rights activists. A week after the riot, Representative Marjorie Taylor Greene, a newly elected Republican from Georgia who has liked posts on social media that call for killing Democrats, wore a mask stitched with the phrase when she voted against impeachment on the House floor.

“There is a certain kind of classicist who will look on what transpired and say, ‘Oh, that’s not us,’” Padilla said when we spoke recently. “What is of interest to me is why is it so imperative for classicists of a certain stripe to make this discursive move? ‘This is not us.’ Systemic racism is foundational to those institutions that incubate classics and classics as a field itself. Can you take stock, can you practice the recognition of the manifold ways in which racism is a part of what you do? What the demands of the current political moment mean?”

Padilla suspects that he will one day need to leave classics and the academy in order to push harder for the changes he wants to see in the world. He has even considered entering politics. “I would never have thought the position I hold now to be attainable to me as a kid,” he said. “But the fact that this is a minor miracle does not displace my deep sense that this is temporary too.” His influence on the field may be more permanent than his presence in it. “Dan-el has galvanized a lot of people,” Rebecca Futo Kennedy, a professor at Denison University, told me. Joel Christensen, the Brandeis professor, now feels that it is his “moral and ethical and intellectual responsibility” to teach classics in a way that exposes its racist history. “Otherwise we’re just participating in propaganda,” he said. Christensen, who is 42, was in graduate school before he had his “crisis of faith,” and he understands the fear that many classicists may experience at being asked to rewrite the narrative of their life’s work. But, he warned, “that future is coming, with or without Dan-el.”

Rachel Poser is the deputy editor of Harper’s Magazine. Her writing, which often focuses on the relationship between past and present, has appeared in Harper’s, The New York Times, Mother Jones and elsewhere. A version of this article appears in print on Feb. 7, 2021, Page 38 of the Sunday Magazine with the headline: The Iconoclast.

Conceito de tecnologia deve ser pensado à luz da diversidade, diz filósofo chinês (Folha de S.Paulo)

www1.folha.uol.com.br

Ronaldo Lemos, 31 de janeiro de 2021


[resumo] Um dos mais originais pensadores contemporâneos, o chinês Yuk Hui refuta a ideia ocidental de que a tecnologia é um fenômeno único e universal guiado apenas pela racionalidade. Em entrevista, ele comenta o conceito de tecnodiversidade, tema de livro publicado agora no Brasil, no qual propõe uma visão mais plural do tema, encarando a tecnologia como resultante de conhecimentos e contextos locais variados, o que pode contribuir para formas de pensar que levem à superação de impasses políticos, sociais e ecológicos atuais.

O chinês Yuk Hui tornou-se um dos pensadores centrais para entender o mundo contemporâneo. A originalidade da sua obra consiste precisamente em inaugurar um olhar novo sobre a questão da tecnologia.

Enquanto nós, no Ocidente, nos encantamos com o poder das próprias plataformas tecnológicas que criamos, enxergando-as a partir de ideias reducionistas, como o conceito de singularidade (grosso modo descrito como o momento em que as máquinas adquirem inteligência), Yuk Hui foi para um outro lugar.

Abraçou o conceito da tecnodiversidade, no qual destrói a ideia da tecnologia como um fenômeno universal. Na sua visão, a forma como lidamos com ela é limitante e obscurece nossa relação com o “cosmos” e suas infinitas possibilidades.

Nesta entrevista, Yuk Hui comenta seu primeiro livro publicado no Brasil. Intitulado “Tecnodiversidade”, resulta de uma cuidadosa compilação de textos do pensador realizada pela editora Ubu, em contato diretamente com o autor.

A originalidade da sua obra confunde-se com a sua história pessoal. Nascido na China, formou-se em engenharia da computação em Hong Kong. Depois rumou para Londres, onde estudou no prestigioso Goldsmiths College. A partir daí, circulou por várias instituições europeias, incluindo o Instituto de Inovação do Centro Pompidou, em Paris, e as universidades Leuphana, em Luneburgo, e Bauhaus, em Weimar, ambas na Alemanha.

Voltou então para a China, onde passou a editar a coleção de filosofia da mídia e tecnologia da Academia de Ciências Sociais, em Xangai, e a dar aulas na Universidade de Hong Kong.

Em 2019 esteve no Brasil para conferências na UFPB, na UFRJ e no ITS Rio. Com isso, Hui tece um diálogo entre o pensamento oriental e o ocidental para enfrentar a principal charada dos nossos tempos: o que fazer com a tecnologia?

De Hong Kong, Hui concedeu a entrevista a seguir via aplicativo de chamada pela internet.

Você ocupa uma posição única como pensador. Nasceu na China, fala mandarim, cantonês, teochew, inglês, francês e alemão, trabalhou em instituições renomadas no Ocidente e no Oriente. Vou começar te perguntando se é mais fácil filosofar em chinês ou alemão? [Risos]. De fato, a filosofia é sobre articulação e elaboração de conceitos cujas possibilidades estão na própria linguagem. Não dá para pensar sem a linguagem e é por isso que, para os gregos, a ideia de logos também significa a capacidade de linguagem.

A língua alemã, assim como o grego antigo, tem a vantagem de permitir a articulação precisa de significados. É por isso que Martin Heidegger disse certa vez que essas duas línguas são as línguas da filosofia.

Já o chinês é uma língua baseada em pictogramas, consistindo em uma forma de pensar conduzida por imagens. No entanto, isso não significa que o chinês seja uma língua imprecisa. Nas línguas europeias a noção de tempo é expressa por meio de tempos verbais. Já no Chinês, o tempo não é expresso em verbos, mas em advérbios.

Curiosamente, é no japonês onde podemos encontrar uma combinação interessante de pictogramas (“kanji”) e a conjugação dos verbos. Nosso cérebro é moldado de acordo com a nossa experiência de aprender uma língua, que sintetiza modos diferentes de pensar.

Então, no final, não sei mais em que língua estou pensando. Como nesta entrevista em que estamos nos comunicando em inglês, mas não é realmente inglês que estamos “falando”.

Como o Ocidente e o Oriente percebem a ideia de tecnologia? A tecnologia é um conceito universal? Primeiro, acho que é importante esclarecer o termo universal. No pensamento tradicional, o universal se opõe ao particular, em uma dualidade entre isto ou aquilo. Quando entendemos o universal dessa forma, a afirmação “a tecnologia é um universal” torna-se problemática.

Ou ainda, acreditamos que o progresso da humanidade é definido por uma racionalidade universal, que se concretiza no tempo. No entanto, esse conceito de tecnologia é apenas um produto histórico da modernidade ocidental.

De fato, entre o conceito grego de “technē” e a tecnologia moderna encontra-se uma ruptura epistemológica e metodológica. Não há conceito singular de tecnologia, nem epistemologicamente nem ontologicamente. Podemos no máximo dizer que o conceito de tecnologia foi universalizado através da história da colonização e da globalização.

Arnold Toynbee certa vez perguntou: “Por que o extremo oriente fechou suas portas para os europeus no século 16, mas abriu essas portas para eles no século 19?”. Sua análise é que, no século 16, os europeus queriam exportar tanto a sua tecnologia quanto a sua religião para o Oriente. Já no século 19, sabendo que a religião pode ser um obstáculo, os europeus exportaram somente a tecnologia.

Isso decorre de um modo de pensar em que a tecnologia seria somente um reles instrumento, que poderia ser controlado com um modo de pensar próprio. Os japoneses chamaram essa ideia de “wakon yōsai” (“alma japonesa, conhecimento ocidental”). Os chineses chamaram de “zhōng ti xī yòng” (“adotar o conhecimento ocidental para seu uso prático, mantendo os valores e usos chineses”).

No entanto, olhando retrospectivamente, essa dualidade provou-se insustentável. Nós ainda não entendemos a tecnologia e, por causa disso, ainda não somos capazes de superar a modernidade.

Sua obra usa muitos conceitos do antropólogo Eduardo Viveiros de Castro, como o perspectivismo ameríndio, para construir um entendimento maior sobre a tecnologia. Como o perspectivismo e Viveiros de Castro chegaram ao seu trabalho?Eu admiro o trabalho do professor Viveiros de Castro e o que ele chamou de multinaturalismo é muito inspirador. Ele e seus colegas, como Philippe Descola, têm tentando mostrar que a natureza não é um conceito universal.

Provavelmente, posso dizer que o que eu estava tentando fazer com o conceito de tecnologia é um eco da sua tentativa de longo prazo de articular um pluralismo ontológico. Meu sentimento é que, por causa da orientação e de conflitos de certas escolas da antropologia (por exemplo, entre Claude Lévi-Strauss e André Leroi-Gourhan), a questão da tecnologia não alcançou a clareza que ela merece.

Por isso, o pensamento sobre a natureza de alguma forma deixou esse seu outro aspecto subanalisado. Esse é um assunto que queria discutir com Viveiros de Castro há alguns anos. A novidade é que agora temos toda uma correspondência que trocamos e que será publicada na revista Philosophy Today a partir de abril deste ano.

O Ocidente está fascinado com a ideia de singularidade, que pode ser descrita como o momento em que as máquinas se tornam inteligentes e obtêm primazia sobre a humanidade, levando a um ponto de convergência. Versões dessa ideia aparecem em Ray Kurzweil, mas também no livro “Homo Deus”, no qual Yuval Harari basicamente desiste da ideia de humanismo em prol de uma tecnologia vindoura. Isso faz sentido? Esses discursos em torno da singularidade e do “homo deus” tornaram-se muito populares e perigosos. Eles revelam uma verdade parcial. E, por ser parcial, deixam de fora as questões mais fundamentais sem resposta. Do ponto de vista histórico, o processo de se tornar humano implica a invenção e o uso da tecnologia.

Assim, as teses de que os seres humanos fazem ferramentas e as ferramentas fazem os seres humanos são ambas válidas, como quando a paleontologia tem mostrado, em termos de continuidade e descontinuidade, a trajetória do zinjatropos aos neantropos (Homo sapiens).

O fato de a linguagem simbólica e a arte (como as pinturas rupestres) só terem aparecido entre os neantropos, mas não entre os paleantropos (neandertais), sugere que possa haver uma ruptura cognitiva e existencial. Esta consiste na capacidade de antecipação, de acordo com André Leroi-Gourhan ou, se seguirmos Georges Bataille em seu texto sobre as pinturas rupestres de Lascaux, no sul da França, na capacidade de reflexão sobre a própria morte.

Em outras palavras, a questão da mortalidade condiciona o horizonte de significados que definem o desenvolvimento da arte, da ciência e da política. A introdução da ideia de imortalidade, por meio de noções como a singularidade ou “homo deus”, pertencem a uma época em que a aceleração tecnológica constantemente é um elemento de disrupção dos nossos hábitos, abrindo caminho para a ficção científica tomar conta das nossas imaginações.

O Zaratustra de Nietzsche acabou se tornando, de forma inocente, o porta-voz desse negócio trans-humanista, que promove um otimismo a respeito da superação da humanidade por meio de aprimoramentos na duração da vida, na inteligência e na emoção.

Se for para nos tornarmos “homo deus” ou imortais, então teríamos de reavaliar todos os valores e significados condicionados pela mortalidade. Essas questões permanecem em silêncio no trans-humanismo e, portanto, o trans-humanismo é fundamentalmente uma forma de humanismo e de niilismo.

Para ser possível indagar sobre o futuro do humano ou do pós-humano, teremos de confrontar, em primeiro lugar, um niilismo do século 21. De outro modo, seremos apenas rebanhos participando de campanhas das empresas de biotecnologia e das editoras de livros.

Ainda faz sentido falar em distinções como orgânico e mecânico com o surgimento da tecnologia digital e do virtual?  A distinção entre orgânico e mecânico veio de uma necessidade histórica na Europa, especificamente o declínio no século 17 da filosofia mecanicista e a emergência da biologia no século 18, disciplina que só foi reconhecida no começo do século 19.

No pensamento chinês não é possível identificar uma trajetória similar, ainda que muita gente afirme que o pensamento chinês é orgânico —isso denota uma falta de compreensão sobre o assunto.

No meu livro “Recursivity and Contingency” (recursividade e contingência) —meu esforço de fornecer uma nova interpretação da história da filosofia europeia, desde o começo do período moderno até hoje—, explico que essa distinção era fundamental para os projetos filosóficos de Kant e de idealistas pós-kantianos, como Fichte, Schelling e Hegel.

Falo também como essa distinção foi colocada em questão pela cibernética, assim como da necessidade de formular uma nova condição filosófica para os nossos tempos. É por essa razão que a primeira frase desse meu livro declara que ele éum tratado sobre cibernética.

Há um enorme debate sobre as big techs, grandes empresas de tecnologia como Google, Facebook, Apple, Amazon etc. Na China há um ecossistema diferente, com empresas como Alibaba, Tencent, ByteDance e Baidu. A questão das big techs é a mesma no Ocidente e na China? De fato, o ecossistema chinês que você menciona não é tanto sobre inovação tecnológica, mas muito mais condicionado pelos sistemas social e político. Como consequência, os processos de normalização são diferentes entre si e cada um desses sistemas políticos e sociais.

Por normalização eu me refiro aos meios pelos quais se adquire legitimidade para se transformar em norma social. As pessoas no Ocidente tendem a pensar que os chineses não se importam com a privacidade, mas isso não é verdade. O fato é que na China o processo de normalização é em grande medida determinado pelo Estado e com isso vemos dinâmicas diferentes na recepção e no uso da tecnologia.


No entanto, como no Ocidente, as empresas de tecnologia usam a coleta de dados, construção de perfis e análises de comportamentos de um modo que ultrapassa a capacidade da administração estatal, o que pode se tornar uma ameaça ao poder do Estado. Acho que as acusações recentes de monopólio contra o Alibaba podem servir como um bom estudo de caso para essa questão.

Ao emergir como uma superpotência tecnológica, a China tem sido capaz de criar um modelo diferente de tecnologia e seus dispositivos ou é tudo a mesma coisa sob o sol, no Ocidente e no Oriente? Infelizmente, acho que não estamos testemunhando uma tecnodiversidade no seu sentido real. Certa vez eu fui a Hong Kong e Shenzhen com um grupo de estudantes russos que estava muito interessado em entender o desenvolvimento tecnológico na China.

No entanto, eles ficaram desapontados ao constatar que os aplicativos utilizados pareciam familiares, com a diferença de que a interface estava em chinês. Essa é outra razão pela qual a questão da tecnodiversidade ainda está por ser formulada.

Como o seu trabalho filosófico pode ser traduzido em ação? Existe um programa político que guie sua obra? Eu sou um filósofo, e o que posso fazer dentro da minha capacidade pessoal é formular questões que considero importantes e elaborar sobre a necessidade dessas questões.

Só posso desejar que o que eu tenho pensado possa ter ressonância sobre quem se preocupa com a questão da tecnologia e que possamos pensar juntos como um programa como esse poderia parecer e funcionar.

Se você me perguntar qual será o melhor caminho de começar algo assim, eu diria que precisamos reformar nossas universidades, em especial o sistema do conhecimento, suas divisões e estruturas, formas definidas séculos atrás.

No ano passado escutei sua conversa com Aleksandr Dugin, pensador a quem muita gente atribui, em uma simplificação grosseira, o rótulo de teórico do movimento antiglobalista contemporâneo. O que há de interessante no pensamento de Dugin e como ele se relaciona com o seu? A proposta de Aleksandr Dugin, bem como o legado da Escola de Kyoto, para mim é um assunto muito difícil de tratar. Quando digo difícil, não quero dizer que suas teorias sejam difíceis de entender, mas sim que é difícil desacreditá-los como fascistas e reacionários.

Se quisermos nos aproximar da questão do pluralismo, não podemos evitar as tensões entre essas diferenças. Desde o Iluminismo, a busca pelo universal tem sido central para o pensamento político. Aceitar com facilidade o universal elimina diversidades, reduzindo-as a meras representações, como no caso do multiculturalismo (o que Viveiros de Castro critica com razão).

A recusa fácil do universal em nome das particularidades também justifica o nacionalismo e a violência estatal. Não tenho a impressão de que Dugin ou os filósofos da Escola de Kyoto ignorem essa questão, no entanto tem havido obstáculos para o seu entendimento. Isso é o que eu chamo de “o dilema do retorno para casa” no meu livro sobre a questão da tecnologia na China. Penso que essa tem de ser a questão central da filosofia política no século 21.

Um dos pontos que chamam a atenção em Dugin é que a natureza em si não deveria ser um fenômeno universal. De forma grosseira, a visão dele acomodaria aqueles que acreditam que a terra é plana. No seu trabalho, você diz que a tecnologia não é um conceito universal. Como suas perspectivas se diferenciam? No meu debate com Dugin, ele elogiou o professor Eduardo Viveiros de Castro por sua ideia de multinaturalismo, mas seria inconcebível imaginar o professor Viveiros de Castro dizendo que a terra é plana. A natureza enquanto conceito, como a técnica, é uma construção histórica e cultural (geográfica).

No entanto, isso não significa que é uma construção puramente social e, desse modo, arbitrária. Quando eu digo que a tecnologia não é um universal, isso não significa que a teoria da causalidade aplicada para uma máquina mecânica é arbitrária ou que possamos reverter as causalidades. Rejeitar um conceito universal de natureza e de tecnologia não significa, de jeito nenhum, ser anticiência ou antitecnologia.

Minha sugestão é que, em vez de entender a tecnologia como uma substância universal sublinhada pela racionalidade, ela tem de ser entendida dentro de uma “gênesis”, por exemplo, em justaposição a outras formas de pensar, como a estética, a religião, a filosofia proposta por Gilbert Simondon, tudo sendo histórico e cultural.

Você esteve no Brasil, onde fez conferências na Paraíba e no Rio. Você tem hoje uma rede de interlocutores no país, como o professor Carlos Dowling, Hermano Vianna, Eduardo Viveiros de Castro e eu também. Quais foram suas impressões do Brasil e que papel nos cabe em termos de tecnologia? Foi minha primeira vez na América Latina, e isso me fez ter um entendimento melhor do legado colonial e também da inquietação social e política na região. Fiquei muito tocado com a recepção que tive no Brasil, e vejo que há muitas conversas por vir.

Acho que a América Latina em geral, e especialmente o Brasil, terá um papel muito importante a desempenhar no desenvolvimento de uma tecnodiversidade, a partir das necessidades de descolonização e das características próprias do seu pensamento.

Você mesmo me disse que há mais de uma década houve muitas tentativas no Brasil de articular uma tecnodiversidade [como no trabalho de Gilberto Gil no Ministério da Cultura], incluindo um trabalho sobre direitos autorais e sobre a perspectiva de grupos indígenas. Espero que surjam novos momentos para continuar esses trabalhos.

O seu livro “Tecnodiversidade” acaba de ser publicado no Brasil. É um livro único, no qual você trabalhou diretamente com a editora Ubu para compilar alguns dos seus trabalhos mais importantes, além de escrever uma introdução especial para o volume. O que você achou do resultado? A editora Florencia Ferrari foi muito gentil de ter se oferecido para publicar uma antologia dos meus textos. Tanto eu quanto ela temos de agradecer a você pelo texto de introdução.

Escolhi vários textos políticos e algumas conferências que realizei em Taipei em 2019, junto com o meu antigo orientador Bernard Stiegler. Fiquei feliz que esses artigos foram traduzidos para o português, uma vez que eles dão uma boa impressão da minha trajetória de 2016 a 2020, bem como quais seriam as implicações dos conceitos que venho desenvolvendo.

Uma pergunta pessoal: como você lida com a tecnologia? Você tem um smartphone? Está presente em redes sociais? Fica online por muito tempo ou tem algum tipo de compulsão para checar o celular o tempo todo, como todos nós? Minha primeira formação é como cientista da computação, então não sou realmente um ludita. Estou no Twitter, no Facebook, no WeChat e em outras mídias sociais. Se você quiser entender essas mídias, você tem de utilizá-las. Não pode criticá-las sem ao menos ter um conhecimento do que são, como muitos filósofos ainda fazem hoje.

No entanto, para conseguir me concentrar, somente me permito checar essas mídias sociais durante um período específico do dia. Em geral eu reservo as manhãs para estudar.

Você assistiu ao documentário “O Dilema das Redes”, na Netflix? Qual sua opinião? Assisti só a uma parte, mas, para mim, o problema não é tanto a questão da manipulação, mas sim a falta de alternativas. Em 2012, eu trabalhava no time do Bernard Stiegler em Paris para desenvolver uma alternativa a redes sociais como o Facebook. Seria o que chamei de rede social baseada em grupos, que possibilitaria um design alternativo.

O problema que vejo hoje é que não somos capazes de prover verdadeiras alternativas. Quando você está cansado do Facebook você muda para outro Facebook, que pode ser diferente apenas em sua política de dados e propriedade, mas você acaba fazendo as mesmas coisas lá e sofre dos mesmos problemas nessas novas plataformas. Criar alternativas faz também parte do que chamo de tecnodiversidade.

Quais sãos seus projetos atuais? Está dando aulas online? Como funciona isso para você? Estou aguardando a publicação de meu novo livro, “Art and Cosmotechnics” (arte e cosmotécnica) —espero que ele seja publicado a partir de abril de 2021. A partir daí, vou embarcar em outras aventuras. Atualmente estou dando aulas em Hong Kong.

Por causa da Covid-19, a maior parte tem sido online. É interessante que nesta época digital dar aulas face a face ainda seja considerado pela maioria das pessoas como mais “autêntico” e que ensinar online seja visto como secundário. Ao mesmo tempo, é espantoso que não haja mais ferramentas de ensino digital online e que todas as universidades acabem usando praticamente as mesmas ferramentas. Isso diz muitas coisas.

A pandemia foi um alarme para nos lembrar do nosso lugar na natureza e também no cosmos? Você acha que há alguma reconfiguração no pensamento por causa dela? Espero mesmo que seja um alarme. No entanto, isso não implica uma grande mudança na nossa orientação política. Ao contrário, pode ser o caso de que a recuperação econômica, social ou política apenas leve a formas ainda mais agressivas de exploração. Então, não é o caso de esperarmos o fim da pandemia para mudar algo.

Algumas novas orientações e estratégias têm de ser formuladas desde já. Ainda tenho esperança de que, com a tecnologia digital, possa haver algo que possamos fazer em termos de construir novas instituições e trocas.

A ideia de tecnodiversidade aplica-se às ciências da vida, como a pesquisa genética ou o desenvolvimento de vacinas? Faz sentido pensar em tecnodiversidade nesses casos? Em termos de tecnodiversidade, talvez possamos dizer que haja duas perspectivas, ainda que estejam inter-relacionadas.

Uma é a perspectiva da cultura, que elaborei no meu livro sobre a cosmotécnica, contra o conceito da universalidade da tecnologia. A outra é a perspectiva da epistemologia, como o que eu disse sobre as redes sociais. Diversificação é imperativo, não apenas da perspectiva do mercado, mas também da imaginação do futuro.

Qual o papel da religião no mundo de hoje? Se me lembro corretamente, você estudou em um colégio católico quando jovem. Além disso, a tecnologia é, de algum modo, uma nova forma ou um substituto para a religião? Depois do anúncio de Nietzsche sobre a morte de Deus, vemos que a religião cristã ainda existe, mas Nietzsche não está mais lá. A morte de Deus é para Nietzsche um momento de superar o conceito do humano, para inventar a ideia do “Übermensch”.

Deus é transcendência que não pode ser substituído pela tecnologia em si. No entanto, a fantasia sobre a tecnologia, como, por exemplo, a ideias de “homo deus”, de singularidade e outros termos que invocamos antes podem desempenhar esse papel.

Nosso conhecimento é limitado, muitas coisas são desconhecidas por nós. Com o avanço da ciência e da tecnologia, essas coisas passaram a parecer ainda mais místicas que antes. O desconhecido ocupa o lugar de Deus; alguns continuam a encontrá-lo na religião, alguns na poesia e alguns na arte. Para mim, a questão é qual a relação entre tecnologia e o desconhecido. Esse é o tema chave dos meus estudos no livro “Art and Cosmotechnics”.

Por fim, vivemos uma exaustão de paradigmas para entender o mundo? É necessário construir uma nova linguagem, baseada na ciência da computação, como propõe Stephen Wolfram, para explicar a natureza e o mundo? Ou ainda temos as ferramentas necessárias para isso? A linguagem para apreender as coisas em si, em sua totalidade, é chamada de metafísica. Nesse sentido, a cibernética, que entende o mundo através da retroalimentação de repetições e pela organização da informação, não apenas é metafísica, mas também sua completude, sua realização.

A linguagem cibernética hoje é concretizada em algoritmos, e algumas pessoas podem ser seduzidas pela ideia de que logo será possível decifrar os segredos do Universo, da mesma forma como se aspirou logo depois da descoberta do DNA. E, de fato, alguns biólogos hoje usam uma metáfora linguística para entender o DNA como se fossem algoritmos e informação codificada por meio dele.

No entanto, hoje vivemos em um mundo pós-metafísico, posterior à ideia da morte de Deus e posterior ao fim da metafísica e das batalhas do século 20. Vamos precisar de uma abertura para entender este mundo e procurar um lugar para nós mesmos no cosmos.

Não estou dizendo que não seja promissor entender o mundo através da ciência, ou que deveríamos abdicar da ciência ou da tecnologia. Isso de forma alguma é o que afirmo. Em vez disso, não importa o quão avançado seja nosso conhecimento, devemos sempre lembrar a nós mesmos da nossa própria finitude em face ao mundo. De outro modo, vamos apenas bater em retirada em direção à metafísica.

Algo parecido com o que Rainer Maria Rilke disse nas “Elegias de Duíno”: “Com todos os seus olhos, o mundo natural vê o Aberto. Nosso olhar, porém, foi revertido e como armadilha se oculta em torno do livre caminho. O que está além, pressentimos apenas na expressão do animal; pois desde a infância desviamos o olhar para trás e o espaço livre perdemos, ah, esse espaço profundo que há na face do animal”.

Da personalização do discurso em Aristóteles à personalização com algoritmos de IA (Época Negócios)

epocanegocios.globo.com

Dora Kaufman* – 11 Set 2020 – 10h30

Os algoritmos de inteligência artificial (IA) atuam como curadores da informação, personalizando, por exemplo, as respostas nas plataformas de busca como Google e a seleção do que será publicado no feed de notícias de cada usuário do Facebook. O ativista Eli Pariser (The Filtre Bubble, 2011) reconhece a utilidade de sistemas de relevância ao fornecer conteúdo personalizado, mas alerta para os efeitos negativos da formação de “bolhas” ao reduzir a exposição à opiniões divergentes. Para Cass Sunstein (#republic, 2017), esses sistemas são responsáveis pelo aumento da polarização cultural e política pondo em risco a democracia. Existem muitas críticas à esses sistemas, algumas justas outras nem tanto; o fato é que personalização, curadoria, clusterização, mecanismos de persuasão, nada disso é novo, cabe é investigar o que mudou com a IA.

A personalização do discurso, por exemplo, remete à Aristóteles. A arte de conhecer o ouvinte e adaptar o discurso ao seu perfil, não para convencê-lo racionalmente, mas para conquistá-lo pelo “coração” é o tema da obra “Retórica”. Composta de três volumes, o Livro II é dedicado ao plano emocional listando as emoções que devem conter um discurso persuasivo: ira, calma, amizade, inimizade, temor, confiança, vergonha, desvergonha, amabilidade, piedade, indignação, inveja e emulação. Para o filósofo, todos, de algum modo, praticam a retórica na sustentação de seus argumentos. Essa obra funda as bases da retórica ocidental que, com seus mecanismos de persuasão, busca influenciar o interlocutor seja ele usuário, consumidor, cliente ou eleitor.

Cada modelo econômico tem seus próprios mecanismos de persuasão, que extrapolam motivações comerciais com impactos culturais e comportamentais. Na Economia Industrial, caracterizada pela produção e pelo consumo massivo de bens e serviços, a propaganda predominou como meio de convencimento nas decisões dos consumidores, inicialmente tratados como uma “massa” de indivíduos indistinguíveis. O advento das tecnologias digitais viabilizou a comunicação segmentada em função de características, perfis e preferências similares, mas ainda distante da hipersegmentação proporcionada pelas tecnologias de IA.

A hipersegmentação com algoritmos de IA é baseada na mineração de grandes conjuntos de dados (Big Data) e sofisticadas técnicas de análise e previsão, particularmente os modelos estatísticos de redes neurais/deep learning. Esses modelos permitem extrair dos dados informações sobre seus usuários e/ou consumidores e fazer previsões com alto grau de acurácia – desejos, comportamentos, interesses, padrões de pesquisa, por onde circulam, bem como a capacidade de pagamento e até o estado de saúde. Os algoritmos de IA transformam em informação útil a imensidão de dados gerados nas movimentações online.

Na visão de Shoshana Zuboff (The Age of Surveillance Capitalism, 2019), a maior ameaça não está nos dados produzidos voluntariamente em nossas interações nos meios digitais (“dados consentidos”), mas nos “dados residuais” sob os quais os usuários de plataformas online não exercem controle. Até 2006, os dados residuais eram desprezados, com a sofisticação dos modelos preditivos de IA esses dados tornaram-se valiosos: a velocidade de digitalização, os erros gramaticais cometidos, o formato dos textos, as cores preferidas e mais uma infinidade de detalhes do comportamento dos usuários são registrados e inseridos na extensa base de dados gerando projeções assertivas sobre o comportamento humano atual e futuro. Outro aspecto ressaltado por Zuboff é que as plataformas tecnológicas, em geral, captam mais dados do que o necessário para a dinâmica de seus modelos de negócio, ou seja, para melhorar produtos e serviços, e os utilizam para prever o comportamento de grupos específicos (“excedente comportamental”).

Esses processos de persuasão ocorrem em níveis invisíveis, sem conhecimento e/ou consentimento dos usuários, que desconhecem o potencial e a abrangência das previsões dos algoritmos de IA; num nível mais avançado, essas previsões envolvem personalidade, emoções, orientação sexual e política, ou seja, um conjunto de informações que em tese não era a intenção do usuário revelar. As fotos postadas nas redes sociais, por exemplo, geram os chamados “sinais de previsão” tais como os músculos e a simetria da face, informações utilizadas no treinamento de algoritmos de IA de reconhecimento de imagem.

A escala atual de geração, armazenamento e mineração de dados, associada aos modelos assertivos de personalização, é um dos elementos-chave da mudança de natureza dos atuais mecanismos de persuasão. Comparando os modelos tradicionais com os de algoritmos de IA, é possível detectar a extensão dessa mudança: 1) de mensagens elaboradas com base em conhecimento do público-alvo superficial e limitado, a partir do entendimento das características generalistas das categorias, para mensagens elaboradas com base em conhecimento profundo e detalhado/minucioso do público-alvo, hipersegmentação e personalização; 2) de correlações entre variáveis determinadas pelo desenvolvedor do sistema para correlações entre variáveis determinadas automaticamente com base nos dados; 3) de limitados recursos para associar comportamentos offline e online para capacidade de capturar e armazenar dados de comportamento off-line e agregá-los aos dados capturados online formando uma base de dados única, mais completa, mais diversificada, mais precisa; 4) de mecanismos de persuasão visíveis (propaganda na mídia) e relativamente visíveis (propaganda na internet) para mecanismos de persuasão invisíveis; 5) de baixo grau de assertividade para alto grau de assertividade; 6) de instrumentos de medição/verificação dos resultados limitados para instrumentos de medição/verificação dos resultados precisos; 7) de capacidade preditiva limitada à tendências futuras para capacidade preditiva de cenários futuros e quando vão acontecer com grau de acurácia média em torno de 80-90%; e 8) de reduzida capacidade de distorcer imagem e voz para enorme capacidade de distorcer imagem e voz, as Deep Fakes.

Como sempre, cabe à sociedade encontrar um ponto de equilíbrio entre os benefícios e as ameaças da IA. No caso, entre a proteção aos direitos humanos civilizatórios e a inovação e o avanço tecnológico, e entre a curadoria da informação e a manipulação do consumo, do acesso à informação e dos processos democráticos.

*Dora Kaufman professora do TIDD PUC – SP, pós-doutora COPPE-UFRJ e TIDD PUC-SP, doutora ECA-USP com período na Université Paris – Sorbonne IV. Autora dos livros “O Despertar de Gulliver: os desafios das empresas nas redes digitais”, e “A inteligência artificial irá suplantar a inteligência humana?”. Professora convidada da Fundação Dom Cabral

O que resta da crítica estrutural? – Estado da Arte (Estadão)

estadodaarte.estadao.com.br

Filipe Campello, 14 de agosto de 2020

O que mais chocou Hannah Arendt quando, a convite da New Yorker, cobria em 1963 o julgamento de Eichmann foi a incapacidade dos responsáveis pela barbárie do holocausto de pensar. Como seria possível que todos aqueles oficiais nazistas alegassem que estavam apenas seguindo regras, por mais absurdas e cruéis que fossem? E, se estavam obedecendo ordens, até que ponto seriam culpados?

Eichmann em Jerusalém

Arendt estava presenciando naqueles dias em Jerusalém uma pergunta que muitos alemães se fizeram após o fim da guerra. Foi a questão que, em 1946, ainda no calor dos acontecimentos, durante o tribunal de Nüremberg, o filósofo e psiquiatra Karl Jaspers, um dos principais mentores e depois grande amigo de Arendt, se coloca no livro A questão da culpa. Indo além do sentido de culpa estritamente penal, Jaspers traz um sentido também moral ligado à responsabilidade que temos perante nossos atos. “Eu, que não posso agir de outro modo a não ser como indivíduo”, escreve Jaspers, “sou moralmente responsável pelos meus atos, incluindo a execução de ordens militares e políticas. Não é simplesmente verdade que ‘ordens são ordens’”.

Mas Jaspers não se indaga apenas sobre a culpa daqueles indivíduos que estavam sendo julgados, mas sobre a responsabilidade de todo o povo alemão diante da barbárie daqueles anos. Para Jaspers, que era casado com uma judia, ainda que nem todos os alemães pudessem ser punidos por crimes de guerra, isso não os blindaria de reconhecer uma parcela de cumplicidade. O silêncio da indiferença, também ele, é político. Justamente aqueles indivíduos que se diziam apolíticos seriam acometidos por aquilo que Jaspers chama de culpa política. É nesse sentido que o ensaio traz uma reflexão autocrítica de responsabilização coletiva dos alemães com vistas à possibilidade de renovação cultural e política.

Jaspers

As reflexões de Arendt e Jaspers, ambas situadas durante processos de julgamentos penais, trazem então duas dimensões distintas da responsabilidade: a individual e a coletiva. O que é extremo naquele contexto representa um dos mais recorrentes dilemas filosóficos — a tensão entre regras que seguimos e a capacidade de nos responsabilizarmos por nossas escolhas. O problema é que, uma vez que várias dessas regras não estão sempre disponíveis à escolha do indivíduo, elas extrapolariam o âmbito da liberdade individual. Elas fariam parte daquilo que Wittgenstein chamou de jogo de linguagem: por tais regras serem socialmente compartilhadas, nosso horizonte de significações e visões de mundo esbarra no vocabulário que encontramos disponível.

Quando eu era criança, o que mais gostava de fazer era criar meus próprios jogos. Inventava as suas regras em detalhes: desenhava as cartas e o tabuleiro, definia as peças e como se ganharia o jogo. Gostava mais desse processo de criação do que dos jogos com regras já definidas. Talvez houvesse ali uma certa preferência pela subversão.

Acontece que criar novas regras sociais não é tão simples quanto a de um jogo para brincar. Várias dessas regras nos antecedem de um modo que sequer é possível participar do jogo se quisermos prescindir delas. É o que Wittgenstein argumenta em sua crítica à linguagem privada: eu já disponho de um vocabulário que não é propriedade minha; nele, não faria sentido nos referirmos a uma linguagem que fosse exclusivamente individual.

Wittgenstein em Swansea, 1947

É disso que se trata a crítica estrutural. Numa ampla tradição que em grande parte remete a Hegel, o objeto da crítica desloca-se do indivíduo para aquilo que o antecede: Padrões, práticas e hábitos sociais que traçam o horizonte de nossa relação com o mundo e que atravessam até mesmo a constituição de nossos desejos. Tal deslocamento vale desde a nossa referência cotidiana a objetos até a aspectos arraigados em práticas sociais que perpetuam relações de injustiça, como no que se chama de racismo estrutural.

A linguagem que compartilhamos já traz referências a uma semântica e a uma pragmática — um sentido e um uso de palavras e expressões. É o caso do termo “denegrir”, cujo teor racista tem sido alertado de algum tempo para cá. Acontece que enquanto uma pessoa não toma conhecimento deste sentido (não adentra, por assim dizer, o universo semântico implícito na expressão -, não se pode simplesmente acusá-la de usar o termo em um sentido intencionalmente racista. Em outro caso recente, um filho de imigrantes nos Estados Unidos foi fotografado fazendo o gesto de “OK” com a mão. Aparentemente, não haveria problema no gesto, não fosse o fato de ele ter sido apropriado na dark web por movimentos supremacistas brancos. Apesar de não ser possível exigir que ele tivesse consciência dessa apropriação (no caso, aliás, a acusação é ainda mais kafkiana porque ela estava apenas estalando os dedos), bastou uma postagem da foto no Twitter com a marcação da empresa onde ela trabalhava para sua vida virar de cabeça para baixo.

Enquanto há formas estruturais de racismo, qualquer um pode estar sujeito a práticas racistas já incorporadas em hábitos e normas sociais. Se formas de injustiça são estruturais, isso significa que a sociedade como um todo compartilha de uma responsabilidade em transformá-las. Poderíamos dizer, seguindo Jaspers, que o problema reside nas próprias regras a serem seguidas, e que por isso há também uma responsabilização coletiva na mudança delas.

O problema que surge, aqui, é justamente sobre o lugar da responsabilidade do indivíduo tal como posta no contexto extremo dos julgamentos do pós-guerra: Se não somos nós que escolhemos as regras do jogo, o que nos faz responsáveis por segui-las?

Gostaria de sugerir, aqui, duas ideias sobre este problema. A primeira é a de que aquilo que à primeira vista parece ser um limite da crítica estrutural é o que, na verdade, pode ser mais adequado para entender aquilo que cabe à responsabilidade individual; em segundo lugar, que alguns conceitos que tem assumido papel preponderante no debate ligado a pautas identitárias estão esvaziando o potencial da crítica estrutural, pois recam em uma lógica de punitivismo que paradoxalmente acaba por retirar do indivíduo uma dimensão que lhe cabe de responsabilidade.

Tomemos o exemplo do conceito de lugar de fala. O sentido por trás dele, que remete aos trabalhos de Gayatri Spivak, reside na noção de que nem as nossas formas de nos referir ao mundo nem o peso que eles terão no discurso são igualmente compartilhados. Como tem sido amplamente discutido pela literatura pós- e de(s)colonial, trata-se de uma crítica a uma suposta neutralidade epistêmica de nossas visões de mundo, onde questões de injustiça epistêmica são também políticas — quem está dentro e quem está fora, quem pode falar e quem é silenciado, quais falas, enfim, importam para o discurso — aquilo que no debate em línguas inglesa tem sido chamado de standpoint epistemology.

Gayatri Spivak

Como se vê, o que encontramos no centro desta discussão é a importância dada aos processos de aprendizado, à percepção e à tomada de consciência reflexiva de nossos discursos.

Quando usado, contudo, para fazer ataques pessoais baseados em questões identitárias, o sentido pretendido pelo conceito entra em contradição com o que ele pretende:  de um lado, ele pede por autocrítica e reflexão — ou seja, consciência do lugar a partir de onde se fala —, mas, de outro, acusa-se o indivíduo a partir de uma lógica identitária que justamente escamoteia a possibilidade do aprendizado e da reflexão. É o que se chama de contradição performativa: o próprio conceito, quando enunciado, perde a sua razão de ser.

Problema análogo vale para o sentido de punição no que tem sido chamado de cultura do cancelamento. Quem define quem é culpado e como deve ser punido?

Na genealogia moderna do Estado democrático de direito, o significado de punirmos socialmente alguém que cometeu um delito foi paulatinamente assumido pela esfera jurídica como sendo proporcional a esse delito. Qualquer pessoa que cometeu um crime deve responder por seus atos, mas antes disso ela tem que ter direito ao devido processo legal, que envolve presunção de inocência, direito ao contraditório e ampla defesa etc. A ideia básica do devido processo legal é que há uma pena correspondente a um crime. Não podemos simplesmente estampar um rótulo numa pessoa e taxa-la ad eternum de “criminoso”. É justamente esse tipo de postura que impede a reinserção social de quem foi preso e está novamente livre. Ao indivíduo também lhe é dado o direito a outras possibilidades de escolhas que também fazem parte do horizonte de sua narrativa, como arrepender-se e quer traçar sua biografia de uma outra maneira.

A assim chamada cultura do cancelamento acaba então assumindo dois pesos e duas medidas: ao mesmo tempo que pretende ser antipunitivista ou mesmo anticarcerária, pune socialmente sem conceder o que é previsto nas suas garantias legais. Cria-se uma espécie de antipunitivismo de ocasião, com a diferença de que a pena dada pelo cancelamento pode ser pior, pois não há mais a possibilidade de se pagar uma pena correspondente a um delito, mas enquanto viver a pessoa é condenada ao ostracismo.

(Reprodução: Twitter)

Apesar dos holofotes do cancelamento acabarem se voltando para casos envolvendo celebridades, que já tem mais visibilidade, a consequências dessa lógica punitivista e persecutória atinge mais duramente pessoas em condições de maior vulnerabilidade. E, aqui, as intuições por trás da crítica estrutural mostram-se novamente fecundas: Se há falhas na forma como as instituições da justiça atuam — seletividade e desproporcionalidade das punições, práticas extrajudiciais, ou mesmo limites do legalismo —, a crítica deve se voltar sobretudo a isso, sem precisarmos retroceder a práticas de condenações moral.

É por isso que tenho me posicionado contra qualquer forma de moralismo persecutório — ou seja, que pune o outro a partir de sua própria régua moral. Como entendo, o julgamento que faço a partir de minha régua moral diz mais sobre mim do que dos outros. Ele traça uma linha vertiginosa e arrogante sobre como os outros devem se comportar, e com ela, apenas escancara o narcisismo de minhas próprias convicções. Desconfio, portanto, tanto de quem exige do outro a perfeição quanto de quem se diz perfeito (a tal pessoa de bem) — o que não passa de uma forma ou ingênua ou cínica de autoengano.

Mesmo quem se diz tolerante, a depender da sinceridade de suas motivações, pode apenas esconder formas mais profundas de injustiças estruturais. É por isso que na língua alemã, além do vocábulo de variação latina “tolerieren”, há o verbo “dulden” — que quer dizer “suportar”: eu tenho que suportar quem pensa diferente de mim. Não por acaso, Goethe diz que “[a] tolerância deveria ser uma atitude apenas temporária: ela deve conduzir ao reconhecimento. Tolerar significa insultar.”

Detalhe do retrato de Goethe em 1828, óleo sobre tela de Stieler

Ao invés de voltar-se para a crítica a formas estruturais de injustiça — como tem enfatizado Silvio Almeida em seus trabalhos sobre o racismo estrutural —, o que o uso equivocado de conceitos como lugar de fala e outras práticas como linchamento virtual e cancelamento têm feito é o patrulhamento sobre quem pode ou não falar, muitas vezes assumindo um caráter cerceador da liberdade e de interdição do discurso. No limite, ele joga fora tanto as dimensões estruturais da crítica quanto a possibilidade de responsabilização individual — ou seja, a capacidade que cada um tem de rever suas próprias posições. Por isso, tenho usado o termo paradoxo, referindo-me a posições e posturas que entram em choque com aquilo que pretendem.

O que orienta a crítica estrutural, pelo contrário, não é o abandono da responsabilidade individual, senão confrontar o que podemos chamar de uma noção ingênua de liberdade: a de pressupor que os indivíduos são igualmente livres para perseguir suas próprias escolhas, sem justamente ter em mente um leque de condições estruturais que escrevem seu horizonte de liberdade –  a começar pelo país que nascemos, as condições econômicas de sua família, cor de sua pele, etc. Nada disso depende da liberdade individual. Ao jogar a responsabilidade apenas sobre o indivíduo, perde-se de vista o conjunto de práticas compartilhadas inclusive numa perspectiva histórica e intergeracional. Reconhecimentos públicos de perdão cumprem esse papel: ainda que não seja o chefe de Estado enquanto indivíduo o culpado, o gesto de reconhecimento de injustiças históricas traz um importante significado simbólico de elaboração da memória. É por isso que, até mesmo para libertários como Robert Nozick, é legítimo o reconhecimento de dívida históricas —o que, apesar de não querer indicar uma culpa individual, significa reconhecer que práticas institucionalizas do passado são causas de injustiça no presente.

Robert Nozick

Enquanto volta-se às estruturas sociais, a crítica tem a vantagem de pensar quais são as condições sociais de realização da liberdade individual, compreendendo aí também o que podemos confrontar e não determinar de maneira identitária.

A fixação essencialista e unilateral em condições de identidade acaba por reduzir o pensamento à identidade. Ela encapsula a reflexão, ditando tanto quem pode e quem não pode refletir sobre determinadas questões quanto assumindo uma espécie de relação dada a priori entre identidade e pensamento — como se houvesse um bloco homogêneo determinado identitariamente e não pessoas que podem ter posições diferentes. E não só: se se fragiliza a dimensão de nossa possibilidade de escolha justamente além da condição na qual nascemos, retira-se o sentido de responsabilidade individual. Somos sujeitos com responsabilidade moral justamente porque podemos nos posicionar diante da condição identitária em que nascemos.

O pensamento, a reflexão ou a crítica nunca estão dadas, senão se encontram sempre em disputa, e é isso que permite com que — individual ou coletivamente — confrontemos as instituições, nossas hábitos e práticas sociais. Voltar o foco à crítica estrutural significa reconhecer que, afinal, podemos pensar — ou seja, assumir a responsabilidade que temos pelas nossas escolhas e por aquilo que nos cabe dentro do horizonte e do vocabulário de nossa liberdade.

(Getty Images)

Filipe Campello é professor de filosofia da Universidade Federal de Pernambuco e pesquisador do CNPq. É Doutor em Filosofia pela Universidade de Frankfurt (Alemanha) e realizou pós-doutorado na New School for Social Research (Nova York).

Medo da morte na pandemia oferece uma chance de reconsiderar a vida, diz professor de filosofia (Folha de S.Paulo)

www1.folha.uol.com.br

Pedro Duarte, 1 de agosto de 2020

[RESUMO] Professor de filosofia analisa a sensação de medo da morte e de angústia intensificada nos últimos meses pelo coronavírus, o que nos leva a pensar na finitude da vida e em nossa liberdade no mundo, no significado do que fazemos e queremos, processo no qual a escrita tem papel essencial de dar forma ao que vivemos e anunciar o que está por vir.

“Para mim, em breve, será só escuridão.” Essas foram as palavras que Sérgio Sant’Anna escolheu para terminar seu conto publicado na Folha no dia 26 de abril. O texto recorda um treino de futebol do seu amado Fluminense nos anos 1950 e impressiona pelos detalhes. O golpe de mestre, entretanto, está no narrador: a trave. Quem nos conta o conto é a trave do gol.

Ela já está velha. Confessa que funcionários do clube foram vê-la e deram um veredicto: tem que trocar, pode até dar cupim. “Em breve meu tempo terá passado”, diz.

Sérgio morreu no dia 10 de maio em decorrência do coronavírus. É assustador ler o conto sabendo disso, parece que a trave falava por ele, uma profecia assombrosa. É sempre perturbadora a ideia de que alguém pressente a própria morte, mesmo alguém que estava doente.

Sérgio fazia muitos posts no Facebook, o que dava uma sensação de proximidade. Em um deles, semanas antes de morrer, admitia achar aterrorizante essa peste que nos assola e afirmava que só sabia responder a isso escrevendo. Foi o que fez até o fim. Isso é um escritor.

Mesmo quem não é, porém, pode entender a pressa que parecia ter o Sérgio. A consciência de que vamos morrer, a consciência da nossa finitude, pode ter esse efeito. Uma pressa que é desejo de viver. É que, para ele, viver era escrever, e escrever talvez fosse mais até que viver.

O que está em jogo, contudo, é a mesma coisa: o tempo finito que temos, ou melhor, que nós somos. Com a pandemia, é provável que ela, de quem tentamos manter distância, chegue perto de nós: não a morte em si apenas, mas a mortalidade que nos constitui.

Logo antes disso tudo começar, havia falecido Max von Sydow, ator sueco que deu vida, no filme “O Sétimo Selo” (1957), de Ingmar Bergman, ao cavaleiro Antonius Block.

O enredo se passa na Idade Média. O filme narra o retorno do cavaleiro da Cruzada da Fé para a terra natal, onde está a peste, o que suscita uma consciência da morte. O cavaleiro engaja-se em um jogo de xadrez com ela, que aparece como um personagem, vestida de preto. Block descobre no fim, e Sydow anos depois, que ninguém vence a morte. Mas ganhou uns dias de vida enquanto jogava com ela.

Para boa parte de nós, a pandemia de Covid-19 infunde um medo da morte. Isso enseja medidas concretas que ajudam a evitá-la: distanciar-se das outras pessoas que podem portar o vírus, lavar as mãos e até os produtos, usar máscaras no rosto.

São medidas objetivas de proteção, que podem ajudar a preservar a vida. O medo nos oferece o que fazer, pois ele possui um objeto definido ao qual se dirige, mesmo que seja algo invisível, como o vírus.

No entanto, além do medo, a pandemia também pode despertar a angústia. Não me refiro só ao quadro clínico patológico da angústia, e sim à disposição que a filosofia, desde Kierkegaard no século 19, distingue do medo precisamente porque não se refere a um objeto específico no interior do mundo, mas à nossa própria presença finita nele.

O que angustia na angústia somos nós mesmos. Por isso, a angústia nos deixa meio perdidos, sem ter o que fazer. Com ela, não se trata mais de evitar a morte, mas de compreender a vida mortal que temos.

Nesse sentido, o medo pode ser vencido sem que mudemos nada em nós, enquanto a angústia, que não pode ser vencida, mas apenas experimentada, exige a reconsideração da liberdade de nossa presença no mundo. Em outras palavras, o medo nos dá o que fazer, e a angústia coloca em jogo o nosso ser.

Talvez, e só talvez, a parada obrigatória que a pandemia forçou para todos possa fazer pensar. Não digo pensar só nos destinos do mundo, do Estado, do capitalismo e da modernidade, como os filósofos têm feito, embora isso tenha o seu interesse.

Refiro-me a pensar, cada um em seu íntimo, o sentido do que fazemos e queremos a partir dessa interrupção do que vínhamos fazendo e querendo. Um amigo querido se perguntou outro dia o valor de tanta filosofia que aprendeu até aqui. Por angustiante que seja, é uma chance de reconsiderar a vida.

O esvaziamento de nossas ocupações diárias anteriores ou a sua exacerbação sem as folgas e respiros de antigamente podem trazer à tona a questão de seu sentido, do que elas valem para nós. Por falta ou excesso, por tédio ou fartura, podemos perder a naturalidade familiar com nós mesmos e nos estranhar, até mesmo ao ponto de pensar o que antes não se pensava.

Pode ser cedo ainda para formular bem que tipo de suspensão é esta, mas ela está aí. Pois a morte não é o oposto da vida, é seu avesso. Ela é que nos faz ver a finitude da existência. Por isso mesmo, também há a possibilidade de fugirmos da angústia, pois ela nos lança cara a cara conosco e com o mundo em que não temos muitos amparos.

Desconfio inclusive que o apelo dos motes de retorno ao trabalho e volta à normalidade —para além de necessidades reais e dos desejos pujantes, já que nos foi subtraído o próprio convívio amoroso com as outras pessoas— tem força não apenas por causa da economia, mas porque carrega a esperança de acabar com a angústia, de tapar o buraco que foi cavado por um reles vírus.

O problema é que não foi o vírus que cavou esse buraco. Ele já estava lá, e sempre está, como sabiam os filósofos existencialistas. As condições da pandemia podem fazer olharmos para ele. É um vazio, mas cuja abertura nos faz livres.

Ou seja, se tudo fosse preenchido, não haveria margem de liberdade. O nada, que mora no coração do ser, permite deixarmos de ser o que éramos e nos tornarmos outros (na sua poesia, Fernando Pessoa falava de um “outrar-se”). Esse nada impede que nos definamos de uma vez por todas: põe aventura na vida.

Evidentemente, essa especulação um tanto metafísica convive com pressões ordinárias e terríveis que são as pessoas morrendo, como o próprio Sérgio: deixando de ser. Mas o resto de nós, muitos reclusos em casa, é afetado também às vezes por essa “clara noite” da angústia.

É como se a abrupta e radical desarrumação do sentido do mundo deixasse um vazio ou um nada que, por não estar ocupado, permite que o sentir e o pensar se refaçam de outra forma, diferentemente de antes. Nada mais é tão certo. O futuro está perigosamente em aberto.

Como se ignora ainda a duração da pandemia no tempo e os estragos dela na sociedade, há um abismo, como diria o teórico Reinhart Koselleck, entre como concebemos nosso espaço de experiência e nosso horizonte de expectativa. Isso é o que causa angústia, essa espécie de soltura incerta do presente.

Quantos de nós têm segurança de que seus empregos, ou até suas profissões, ainda estarão aí em dois anos? Quantos estão convictos de que vão continuar querendo viver do mesmo jeito? Tudo isso pode significar uma fissura no ser.

Continuaremos a ter perdas. Não somente em relação aos que morrem, mas a um certo modo de viver. Teremos que incorporá-las, achar um lugar no qual a dor dispense a sua cura. Elizabeth Bishop, a poeta norte-americana que viveu no Brasil, tem conhecidos versos nos quais tenta, justamente, apresentar “uma arte”, ou seja, um ofício, um saber, sobre o perder. Na ótima tradução de Paulo Henriques Britto, o poema pode nos ensinar alguma coisa.

A arte de perder não é nenhum [mistério;
Tantas coisas contêm em si o acidente
De perdê-las, que perder [não é nada sério.

Perca um pouquinho a cada dia. [Aceite, austero,
A chave perdida, a hora gasta [bestamente.
A arte de perder não é [nenhum mistério.

Depois perca mais rápido, com mais [critério:
Lugares, nomes, a escala subseqüente
Da viagem não feita. [Nada disso é sério.

Perdi o relógio de mamãe. Ah! E nem [quero
Lembrar a perda de três casas [excelentes.
A arte de perder não é [nenhum mistério.

Perdi duas cidades lindas. E um [império
Que era meu, dois rios, e mais um [continente.
Tenho saudade deles. Mas [não é nada sério.

—Mesmo perder você (a voz, o riso etéreo que eu amo) não muda nada. [Pois é evidente
que a arte de perder não chega a ser [mistério
por muito que pareça [(Escreve!) muito sério.

Essa pedagogia pode nos fazer aprender exatamente que, em cada perda, da menor até a maior, insinua-se a morte. E que, portanto, a morte não é apenas aquele “depois da vida” sobre o qual tanto se especula, mas também o elemento interno que dá à vida seu tempo, que faz da vida algo no tempo. Esses versos talvez possam vir a constituir o epílogo do que está por vir. Escreve!

De novo, Sérgio Sant’Anna. Ele queria escrever enquanto houvesse tempo. E penso na quantidade enorme de textos, como este aqui, que desde o começo do ano são escritos sobre a pandemia. Por um lado, é claro, o tema se impõe e convoca compreensão para nos aproximarmos dele.

Por outro, acredito que há uma vontade de escrever sobre ele no sentido do poema da Bishop: um misto de testemunho e aviso, de lembrança e recomendação. Escrevendo, retemos aquilo que está se passando e advertimos sobre o que ainda pode estar por vir.

Desde os primórdios, a escrita teve essa dupla função: guardar e anunciar. Nos dois casos, ela era uma tentativa de vencer o esquecimento, do passado e no futuro. Para não esquecer o que se passou ontem, registramos. Uma salvaguarda. (Na Grécia, Platão condenou a escrita porque, com ela, nos desincumbiríamos de lembrar as coisas por nós mesmos: a memória deixaria de se localizar dentro de nós e ficaria guardada fora.) Já para não esquecermos o que devemos fazer amanhã, anotamos, como quando usamos um post-it.

Escrever deve ser ainda a forma de se tentar confirmar o que vivemos, já que parece inacreditável. Isso: escrever é uma forma de acreditar, de fazer crer. É de fato o que está acontecendo. Como se precisássemos dar forma a um conteúdo que ainda nos escapa, nos desafia, nos estarrece. É um modo de, a cada dia, saber que estamos de fato acordados, não dormindo ou sonhando. Pois essas duas coisas às vezes parecem se misturar confusamente na rotina insólita.

Vimos, no século 21, guerras, atentados e crises financeiras que dificultavam a vida acordada. Assistimos, no cinema, a sonhos com alienígenas, asteroides, zumbis, aquecimentos, congelamentos e até epidemias que acabam com o mundo.

Filmes de Hollywood nos deram diversas versões de causas não humanas para o fim dos humanos. Como afirmou Fredric Jameson, a julgar pela produção do cinema comercial, parece que ficou mais fácil conceber o fim do mundo do que o fim do capitalismo, já que revoluções sociais foram raramente encenadas.

Entre os filmes sobre o fim do mundo, um que se destaca é “Melancolia” (2011), de Lars von Trier. O diretor dinamarquês pôs em cena dois personagens com modos de vida opostos diante da iminente colisão de um planeta com a Terra: uma melancólica, interpretada por Kirsten Dunst, e um pragmático, interpretado por Kiefer Sutherland (o ator que encarnara o agente antiterrorista americano Jack Bauer na série “24 Horas”, um ícone do pragmatismo).

Ela lida melhor com o desastre. Já era versada na arte de perder; ele, somente na de ganhar. O sujeito se prepara, estoca mantimentos e tudo o mais —contudo, quando fica claro que não dá para vencer o jogo de xadrez, suicida-se. Já ela encontra um conforto simbólico: faz uma cabana imaginária na qual se abriga com a irmã e o sobrinho. O mundo acaba.

Trata-se de um raro filme sobre o fim do mundo no qual o mundo de fato acaba. Na maior parte das vezes, um herói ou super-herói salva a pátria, quer dizer, o planeta, ou então um grupo de pessoas consegue escapar e caberá a ele recomeçar a aventura humana na Terra. Filmes sobre o fim do mundo costumam ser filmes sobre o quase fim do mundo. Não o de Lars von Trier. Tudo acaba mesmo.

Como eu não tenho qualquer simpatia por ele e tampouco por essa ideia, embora goste muito do filme, devo dizer que outro dia, lendo um texto bastante triste de um amigo sobre a pandemia, só consegui me ater a uma frase, no meio daquela tristeza: a pandemia vai passar. Ele a tinha escrito como um mero detalhe. Para mim, a frase diz muito, mesmo que a pandemia não passe tão cedo.

Pois, embora a morte seja o nosso destino certo e irrevogável, nossa presença no mundo não ganha o seu sentido por causa disso. O medo da morte pode acordar certa lucidez, mas, como observou o filósofo José Gil, não deve nos dominar na pandemia, pois ele encolhe o espaço, suspende o tempo, paralisa o corpo.

É preciso ter um medo desse medo. Mesmo a angústia, que nos coloca em relação com a finitude, não o faz em nome da morte, e sim da vida e de sua liberdade no tempo breve em que existimos. Como escreveu Hannah Arendt, os seres humanos, “embora devam morrer, não nascem para morrer, mas para começar”.

Sérgio Sant’Anna parecia saber bem das duas coisas. No dia 5 de abril, publicou um post no Facebook em que dizia que Jorge Luis Borges tem um conto no qual o personagem, um escritor à beira da morte, consegue de Deus que o seu tempo final seja elástico o suficiente para terminar um romance. “Queria isso para a minha novelinha e todo o livro a que ela pertence”, disse Sérgio, “e confesso que rezo todo dia”.

É esse o valor da vida que a morte traz. Sérgio morreu começando. Só queria mais tempo para escrever. Foi-se, dando início. Aos 78 anos.

Elogio da Profanação – Giorgio Agamben (Territórios de Filosofia)

Aurora Baêta

Os juristas romanos sabiam perfeitamente o que significa “profanar”. Sagradas ou religiosas eram as coisas que de algum modo pertenciam aos deuses. Como tais, elas eram subtraídas ao livre uso e ao comércio dos homens, não podiam ser vendidas nem dadas como fiança, nem cedidas em usufruto ou gravadas de servidão. Sacrílego era todo ato que violasse ou transgredisse esta sua especial indisponibilidade, que as reservava exclusivamente aos deuses celestes (nesse caso eram denominadas propriamente “sagradas”) ou infernais (nesse caso eram simplesmente chamadas “religiosas”). E se consagrar (sacrare) era o termo que designava a saída das coisas da esfera do direito humano, profanar, por sua vez, significava restituí-las ao livre uso dos homens. “Profano” — podia escrever o grande jurista Trebácio — “em sentido próprio denomina-se àquilo que, de sagrado ou religioso que era, é devolvido ao uso e à propriedade dos homens”. E “puro” era o lugar que havia sido desvinculado da sua destinação aos deuses dos mortos e já não era “nem sagrado, nem santo, nem religioso, libertado de todos os nomes desse gênero” (D. 11, 7, 2).

Puro, profano, livre dos nomes sagrados, é o que é restituído ao uso comum dos homens. Mas o uso aqui não aparece como algo natural; aliás, só se tem acesso ao mesmo através de uma profanação. Entre “usar” e “profanar” parece haver uma relação especial, que é importante esclarecer.

Pode-se definir como religião aquilo que subtrai coisas, lugares, animais ou pessoas ao uso comum e as transfere para uma esfera separada. Não só não há religião sem separação, como toda separação contém ou conserva em si um núcleo genuinamente religioso. O dispositivo que realiza e regula a separação é o sacrifício: através de uma série de rituais minuciosos, diferenciados segundo a variedade das culturas, e que Hubert e Mauss inventariaram pacientemente, ele estabelece, em todo caso, a passagem de algo do profano para o sagrado, da esfera humana para a divina. É essencial o corte que separa as duas esferas, o limiar que a vítima deve atravessar, não importando se num sentido ou noutro. O que foi separado ritualmente pode ser restituído, mediante o rito, à esfera profana. Uma das formas mais simples de profanação ocorre através de contato (contagione) no mesmo sacrifício que realiza e regula a passagem da vítima da esfera humana para a divina. Uma parte dela (as entranhas, exta: o fígado, o coração, a vesícula biliar, os pulmões) está reservada aos deuses, enquanto o restante pode ser consumido pelos homens. Basta que os participantes do rito toquem essas carnes para que se tornem profanas e possam ser simplesmente comidas. Há um contágio profano, um tocar que desencanta e devolve ao uso aquilo que o sagrado havia separado e petrificado.

O termo religio, segundo uma etimologia ao mesmo tempo insípida e inexata, não deriva de religare (o que liga e une o humano e o divino), mas de relegere, que indica a atitude de escrúpulo e de atenção que deve caracterizar as relações com os deuses, a inquieta hesitação (o “reler”) perante as formas — e as fórmulas — que se devem observar a fim de respeitar a separação entre o sagrado e o profano. Religio não é o que une homens e deuses, mas aquilo que cuida para que se mantenham distintos. Por isso, à religião não se opõem a incredulidade e a indiferença com relação ao divino, mas a “negligência”, uma atitude livre e “distraída” — ou seja, desvinculada da religio das normas — diante das coisas e do seu uso, diante das formas da separação e do seu significado. Profanar significa abrir a possibilidade de uma forma especial de negligência, que ignora a separação, ou melhor, faz dela um uso particular.

A passagem do sagrado ao profano pode acontecer também por meio de um uso (ou melhor, de um reuso) totalmente incongruente do sagrado. Trata-se do jogo. Sabe-se que as esferas do sagrado e do jogo estão estreitamente vinculadas. A maioria dos jogos que conhecemos deriva de antigas cerimônias sacras, de rituais e de práticas divinatórias que outrora pertenciam à esfera religiosa em sentido amplo. Brincar de roda era originalmente um rito matrimonial; jogar com bola reproduz a luta dos deuses pela posse do sol; os jogos de azar derivam de práticas oraculares; o pião e o jogo de xadrez eram instrumentos de adivinhação. Ao analisar a relação entre jogo e rito, Émile Benveniste mostrou que o jogo não só provém da esfera do sagrado, mas também, de algum modo, representa a sua inversão. A potência do ato sagrado — escreve ele — reside na conjunção do mito que narra a história com o rito que a reproduz e a põe em cena. O jogo quebra essa unidade: como ludus, ou jogo de ação, faz desaparecer o mito e conserva o rito; como jacus, ou jogo de palavras, ele cancela o rito e deixa sobreviver o mito. “Se o sagrado pode ser definido através da unidade consubstanciai entre o mito e o rito, poderíamos dizer que há jogo quando apenas metade da operação sagrada é realizada, traduzindo só o mito em palavras e só o rito em ações.”

Isso significa que o jogo libera e desvia a humanidade da esfera do sagrado, mas sem a abolir simplesmente. O uso a que o sagrado é devolvido é um uso especial, que não coincide com o consumo utilitarista. Assim, a “profanação” do jogo não tem a ver apenas com a esfera religiosa. As crianças, que brincam com qualquer bugiganga que lhes caia nas mãos, transformam em brinquedo também o que pertence à esfera da economia, da guerra, do direito e das outras atividades que estamos acostumados a considerar sérias. Um automóvel, uma arma de fogo, um contrato jurídico transformam-se improvisadamente em brinquedos. É comum, tanto nesses casos como na profanação do sagrado, a passagem de uma religio, que já é percebida como falsa ou opressora, para a negligência como vera religio. E essa não significa descuido (nenhuma atenção resiste ao confronto com a da criança que brinca), mas uma nova dimensão do uso que crianças e filósofos conferem à humanidade. Trata-se de um uso cujo tipo Benjamin devia ter em mente quando escreveu, em O novo advogado, que o direito não mais aplicado, mas apenas estudado, é a porta da justiça. Da mesma forma que a religio não mais observada, mas jogada, abre a porta para o uso, assim também as potências da economia, do direito e da política, desativadas em jogo, tornam-se a porta de uma nova felicidade.

O jogo como órgão da profanação está em decadência em todo lugar. Que o homem moderno já não sabe jogar fica provado precisamente pela multiplicação vertiginosa de novos e velhos jogos. No jogo, nas danças e nas festas, ele procura, de maneira desesperada e obstinada, precisamente o contrário do que ali poderia encontrar: a possibilidade de voltar à festa perdida, um retorno ao sagrado e aos seus ritos, mesmo que fosse na forma das insossas cerimônias da nova religião espetacular ou de uma aula de tango em um salão do interior. Nesse sentido, os jogos televisivos de massa fazem parte de uma nova liturgia, e secularizam uma intenção inconscientemente religiosa. Fazer com que o jogo volte à sua vocação puramente profana é uma tarefa política.

É preciso, nesse sentido, fazer uma distinção entre secularização e profanação. A secularização é uma forma de remoção que mantém intactas as forças, que se restringe a deslocar de um lugar a outro. Assim, a secularização política de conceitos teológicos (a transcendência de Deus como paradigma do poder soberano) limita-se a transmutar a monarquia celeste em monarquia terrena, deixando, porém, intacto o seu poder.

A profanação implica, por sua vez, uma neutralização daquilo que profana. Depois de ter sido profanado, o que estava indisponível e separado perde a sua aura e acaba restituído ao uso. Ambas as operações são políticas, mas a primeira tem a ver com o exercício do poder, o que é assegurado remetendo-o a um modelo sagrado; a segunda desativa os dispositivos do poder e devolve ao uso comum os espaços que ele havia confiscado.

Os filólogos não cansam de ficar surpreendidos com o dúplice e contraditório significado que o verbo profanare parece ter em latim: por um lado, tornar profano, por outro — em acepção atestada só em poucos casos — sacrificar. Trata-se de uma ambigüidade que parece inerente ao vocabulário do sagrado como tal: o adjetivo sacer, com um contra-senso que Freud já havia percebido, significaria tanto “augusto, consagrado aos deuses”, como “maldito, excluído da comunidade”. A ambigüidade, que aqui está em jogo, não se deve apenas a um equívoco, mas é, por assim dizer, constitutiva da operação profanatória (ou daquela, inversa, da consagração). Enquanto se referem a um mesmo objeto que deve passar do profano ao sagrado e do sagrado ao profano, tais operações devem prestar contas, cada vez, a algo parecido com um resíduo de profanidade em toda coisa consagrada e a uma sobra de sacralidade presente em todo objeto profanado.

Veja-se o termo sacer. Ele designa aquilo que, através do ato solene da sacratio ou da devotio (com que o comandante consagra a sua vida aos deuses do inferno para assegurar a vitória), foi entregue aos deuses, pertence exclusivamente a eles. Contudo, na expressão homo sacer, o adjetivo parece designar um indivíduo que, rendo sido excluído da comunidade, pode ser morto impunemente, mas não pode ser sacrificado aos deuses. O que aconteceu de fato nesse caso? Um homem sagrado, ou seja, pertencente aos deuses, sobreviveu ao rito que o separou dos homens e continua levando uma existência aparentemente profana entre eles. No mundo profano, é inerente ao seu corpo um resíduo irredutível de sacralidade, que o subtrai ao comércio normal com seus semelhantes e o expõe à possibilidade da morte violenta, que o devolve aos deuses aos quais realmente pertence; considerado, porém, na esfera divina, ele não pode ser sacrificado e é excluído do culto, pois sua vida já é propriedade dos deuses e, mesmo assim, enquanto sobrevive, por assim dizer, a si mesma, ela introduz um resto incongruente de profanidade no âmbito do sagrado. Sagrado e profano representam, pois, na máquina do sacrifício, um sistema de dois polos, no qual um significante flutuante transita de um âmbito para outro sem deixar de se referir ao mesmo objeto. Mas é precisamente desse modo que a máquina pode assegurar a partilha do uso entre os humanos e os divinos e pode devolver eventualmente aos homens o que havia sido consagrado aos deuses. Daí nasce a promiscuidade entre as duas operações no sacrifício romano, na qual uma parte da própria vítima consagrada acaba profanada por contágio e consumida pelos homens, enquanto outra é entregue aos deuses.

Nessa perspectiva, tornam-se talvez mais compreensíveis o cuidado obsessivo e a implacável seriedade de que, na religião cristã, deviam dar mostras teólogos, pontífices e imperadores, a fim de garantirem, na medida do possível, a coerência e a inteligibilidade da noção de transubstanciação no sacrifício da missa, e das noções de encarnação e omousia no dogma trinitário. Ali estava em jogo nada menos que a sobrevivência de um sistema religioso que havia envolvido o próprio Deus como vítima do sacrifício e, desse modo, havia introduzido nele a separação que, no paganismo, tinha a ver apenas com as coisas humanas. Tratava-se, portanto, de resistir, através da contemporânea presença de duas naturezas numa única pessoa, ou numa só vítima, à confusão entre divino e humano que ameaçava paralisar a máquina sacrificai do cristianismo.

A doutrina da encarnação garantia que a natureza divina e a humana estivessem presentes sem ambigüidade na mesma pessoa, assim como a transubstanciação garantia que as espécies do pão e do vinho se transformassem, sem resíduos, no corpo de Cristo. Acontece assim que, no cristianismo, com a entrada de Deus como vítima do sacrifício e com a forte presença de tendências messiânicas que colocaram em crise a distinção entre o sagrado e o profano, a máquina religiosa parece alcançar um ponto limítrofe ou uma zona de indecidibilidade, em que a esfera divina está sempre prestes a colapsar na esfera humana, e o homem já transpassa sempre para o divino.

O capitalismo como religião é o título de um dos mais profundos fragmentos póstumos de Benjamin. Segundo Benjamin, o capitalismo não representa apenas, como em Weber, uma secularização da fé protestante, mas ele próprio é, essencialmente, um fenômeno religioso, que se desenvolve de modo parasitário a partir do cristianismo. Como tal, como religião da modernidade, ele é definido por três características: 1. É uma religião cultual, talvez a mais extrema e absoluta que jamais tenha existido. Tudo nela tem significado unicamente com referência ao cumprimento de um culto, e não com respeito a um dogma ou a uma ideia. 2. Esse culto é permanente; é “a celebração de um culto sans trêve et sans merci” . Nesse caso, não é possível distinguir entre dias de festa e dias de trabalho, mas há um único e ininterrupto dia de festa, em que o trabalho coincide com a celebração do culto. 3. O culto capitalista não está voltado para a redenção ou para a expiação de uma culpa, mas para a própria culpa.

O capitalismo é talvez o único caso de um culto não expiador, mas culpabilizante […] Uma monstruosa consciência culpável que não conhece redenção transforma-se em culto, não para expiar com ele a sua culpa, mas para torná-la universal […] e para, ao final, envolver o próprio Deus na culpa […] Deus não está morto, mas foi incorporado ao destino do homem.

Precisamente porque tende com todas as suas forças não para a redenção, mas para a culpa, não para a esperança, mas para o desespero, o capitalismo como religião não tem em vista a transformação do mundo, mas a destruição do mesmo. E o seu domínio é em nosso tempo tão total que também os três grandes profetas da modernidade (Nietzsche, Marx e Freud) conspiram com ele, segundo Benjamin, sendo, de algum modo, solidários com a religião do desespero. “Esta passagem do planeta homem, através da casa do desespero, para a absoluta solidão do seu percurso é o ethos que define Nietzsche. Este homem é o Super-Homem, ou seja, o primeiro homem que começa conscientemente a realizar a religião capitalista.” Também a teoria freudiana pertence ao sacerdócio do culto capitalista: “o removido, a representação pecaminosa […] é o capital, sobre o qual o inferno do inconsciente paga os juros”. E em Marx, o capitalismo “com os juros simples e compostos, que são função da culpa […] transforma-se imediatamente em socialismo”.

Procuremos continuar as reflexões de Benjamin na perspectiva que aqui nos interessa. Poderíamos dizer então que o capitalismo, levando ao extremo uma tendência já presente no cristianismo, generaliza e absolutiza, em todo âmbito, a estrutura da separação que define a religião. Onde o sacrifício marcava a passagem do profano ao sagrado e do sagrado ao profano, está agora um único, multiforme e incessante processo de separação, que investe toda coisa, todo lugar, toda atividade humana para dividi-la por si mesma e é totalmente indiferente à cisão sagrado/profano, divino/humano. Na sua forma extrema, a religião capitalista realiza a pura forma da separação, sem mais nada a separar.

Uma profanação absoluta e sem resíduos coincide agora com uma consagração igualmente vazia e integral. E como, na mercadoria, a separação faz parte da própria forma do objeto, que se distingue em valor de uso e valor de troca e se transforma em fetiche inapreensível, assim agora tudo o que é feito, produzido e vivido — também o corpo humano, também a sexualidade, também a linguagem — acaba sendo dividido por si mesmo e deslocado para uma esfera separada que já não define nenhuma divisão substancial e na qual todo uso se torna duravelmente impossível. Esta esfera é o consumo. Se, conforme foi sugerido, denominamos a fase extrema do capitalismo que estamos vivendo como espetáculo, na qual todas as coisas são exibidas na sua separação de si mesmas, então espetáculo e consumo são as duas faces de uma única impossibilidade de usar. O que não pode ser usado acaba, como tal, entregue ao consumo ou à exibição espetacular. Mas isso significa que se tornou impossível profanar (ou, pelo menos, exige procedimentos especiais). Se profanar significa restituir ao uso comum o que havia sido separado na esfera do sagrado, a religião capitalista, na sua fase extrema, está voltada para a criação de algo absolutamente Improfanável.

O cânone teológico do consumo como impossibilidade do uso foi fixado no século XIII pela Cúria Romana no contexto do conflito em que ela se opôs à Ordem dos Franciscanos. Na sua reivindicação da “altíssima pobreza”, os franciscanos afirmavam a possibilidade de um uso totalmente desvinculado da esfera do direito, que eles, para o distinguir do usufruto e de qualquer outro direito de uso, chamavam de usus facti, uso de fato (ou do fato). Contra eles, João XXII, adversário implacável da Ordem, escreve a sua bula Ad conditorem canonum. Nas coisas que são objeto de consumo — argumenta ele —, como o alimento, as roupas etc., não pode haver um uso diferente daquele da propriedade, porque o mesmo se define integralmente no ato do seu consumo, ou seja, da sua destruição (abusus). O consumo, que destrói necessariamente a coisa, não é senão a impossibilidade ou a negação do uso, que pressupõe que a substância da coisa permaneça intacta (salva rei substantia). Não só isso: um simples uso de fato, distinto da propriedade, não existe naturalmente, não é, de modo algum, algo que se possa “ter”. “O próprio ato do uso não existe naturalmente nem antes de o exercer, nem durante o tempo em que se exerce, nem sequer depois de tê-lo exercido. O consumo, mesmo no ato do seu exercício, sempre é já passado ou futuro e, como tal, não se pode dizer que exista naturalmente, mas apenas na memória ou na expectativa. Portanto, ele não pode ter sido a não ser no instante do seu desaparecimento.”

Dessa maneira, com uma profecia inconsciente, João XXII apresenta o paradigma de uma impossibilidade de usar que iria alcançar seu cumprimento muitos séculos depois na sociedade dos consumos. Essa obstinada negação do USO percebe, porém, a sua natureza mais radicalmente do que eram capazes de fazê-lo os que o reivindicavam dentro da ordem franciscana. Isso porque o puro uso aparece, na sua argumentação, não tanto como algo inexistente — ele existe, de fato, instantaneamente no ato do consumo — quanto, sobretudo, como algo que nunca se pode ter, que nunca pode constituir uma propriedade (dominium). Assim, o uso é sempre relação com o inapropriável, referindo-se às coisas enquanto não se podem tornar objeto de posse. Desse modo, porém, o uso evidencia também a verdadeira natureza da propriedade, que não é mais que o dispositivo que desloca o livre uso dos homens para uma esfera separada, na qual é convertido em direito. Se hoje os consumidores na sociedade de massas são infelizes, não é só porque consomem objetos que incorporaram em si a própria não-usabilidade, mas também e sobretudo porque acreditam que exercem o seu direito de propriedade sobre os mesmos, porque se tornaram incapazes de os profanar.

A impossibilidade de usar tem o seu lugar tópico no Museu. A museificação do mundo é atualmente um dado de fato. Uma após outra, progressivamente, as potências espirituais que definiam a vida dos homens — a arte, a religião, a filosofia, a idéia de natureza, até mesmo a política — retiraram-se, uma a uma, docilmente, para o Museu. Museu não designa, nesse caso, um lugar ou um espaço físico determinado, mas a dimensão separada para a qual se transfere o que há um tempo era percebido como verdadeiro e decisivo, e agora já não é. O Museu pode coincidir, nesse sentido, com uma cidade inteira (Évora, Veneza, declaradas por isso mesmo patrimônio da humanidade), com uma região (declarada parque ou oásis natural), e até mesmo com um grupo de indivíduos (enquanto representa uma forma de vida que desapareceu). De forma mais geral, tudo hoje pode tornar-se Museu, na medida em que esse termo indica simplesmente a exposição de uma impossibilidade de usar, de habitar, de fazer experiência.

Por essa razão, no Museu, a analogia entre capitalismo e religião se torna evidente. O Museu ocupa exatamente o espaço e a função em outro tempo reservados ao Templo como lugar do sacrifício. Aos fiéis no Templo — ou aos peregrinos que percorriam a terra de Templo em Templo, de santuário em santuário — correspondem hoje os turistas, que viajam sem trégua num mundo estranhado em Museu. Mas enquanto os fiéis e os peregrinos participavam, no final, de um sacrifício que, separando a vítima na esfera sagrada, restabelecia as justas relações entre o divino e o humano, os turistas celebram, sobre a sua própria pessoa, um ato sacrifical que consiste na angustiante experiência da destruição de todo possível uso. Se os cristãos eram “peregrinos”, ou seja, estrangeiros sobre a terra, porque sabiam que tinham no céu a sua pátria, os adeptos do novo culto capitalista não têm pátria alguma, porque residem na forma pura da separação. Aonde quer que vão, eles encontrarão, multiplicada e elevada ao extremo, a própria impossibilidade de habitar, que haviam conhecido nas suas casas e nas suas cidades, a própria incapacidade de usar, que haviam experimentado nos supermercados, nos shopping centers e nos espetáculos televisivos. Por isso, enquanto representa o culto e o altar central da religião capitalista, o turismo é atualmente a primeira indústria do mundo, que atinge anualmente mais de 650 milhões de homens. E nada é mais impressionante do que o fato de milhões de homens comuns conseguirem realizar na própria carne talvez a mais desesperada experiência que a cada um seja permitido realizar: a perda irrevogável de todo uso, a absoluta impossibilidade de profanar.

É possível, porém, que o Improfanável, sobre o qual se funda a religião capitalista, não seja de fato tal, e que atualmente ainda haja formas eficazes de profanação. Por isso, é preciso lembrar que a profanação não restaura simplesmente algo parecido com um uso natural, que preexistia à sua separação na esfera religiosa, econômica ou jurídica. A sua operação — como mostra com clareza o exemplo do jogo — é mais astuta e complexa e não se limita a abolir a forma da separação para voltar a encontrar, além ou aquém dela, um uso não contaminado. Também na natureza acontecem profanações. O gato que brinca com um novelo como se fosse um rato — exatamente como a criança fazia com antigos símbolos religiosos ou com objetos que pertenciam à esfera econômica — usa conscientemente de forma gratuita os comportamentos próprios da atividade predatória (ou, no caso da criança, próprios do culto religioso ou do inundo do trabalho). Estes não são cancelados, mas, graças à substituição do novelo pelo rato (ou do brinquedo pelo objeto sacro), eles acabam desativados e, dessa forma, abertos a um novo e possível uso.

Mas de que uso se trata? Qual é, para o gato, o uso possível do novelo? Ele consiste em libertar um comportamento da sua inscrição genética em uma esfera determinada (a atividade predatória, a caça). O comportamento libertado dessa forma reproduz e ainda expressa gestualmente as formas da atividade de que se emancipou, esvaziando-as, porém, de seu sentido e da relação imposta com uma finalidade, abrindo-as e dispondo-as para um novo uso. O jogo com o novelo representa a libertação do rato do fato de ser uma presa, e é libertação da atividade predatória do fato de estar necessariamente voltada para a captura e a morte do rato; apesar disso, ele apresenta os mesmos comporta-mentos que definiam a caça. A atividade que daí resulta torna-se dessa forma um puro meio, ou seja, uma prática que, embora conserve tenazmente a sua natureza de meio, se emancipou da sua relação com uma finalidade, esqueceu alegremente o seu objetivo, podendo agora exibir-se como tal, como meio sem fim. Assim, a criação de um novo uso só é possível ao homem se ele desativar o velho uso, tornando-o inoperante.

A separação dá-se também e sobretudo na esfera do corpo, como repressão e separação de determinadas funções fisiológicas. Umas delas é a defecação, que, em nossa sociedade, é isolada e escondida através de uma série de dispositivos e de proibições (que têm a ver tanto com os comportamentos quanto com a linguagem). O que poderia querer dizer: profanar a defecação? Certamente não encontrar nisso uma pretensa naturalidade, nem simplesmente desfrutá-lo como forma de transgressão perversa (o que, aliás, é melhor do que nada). Trata-se, sim, de alcançar arqueologicamente a defecação como campo de tensões polares entre natureza e cultura, privado e público, singular e comum. Ou melhor, trata-se de aprender um novo uso das fezes, assim como as crianças estavam tentando fazer a seu modo antes que interviessem a repressão e a separação. As formas desse uso só poderão ser inventadas de maneira coletiva. Como observou certa vez Italo Calvino, também as fezes são uma produção humana como as outras, só que delas nunca se fez uma história. Por esse motivo, qualquer tentativa individual de profaná-las pode ter apenas valor de paródia, a exemplo da cena da defecação em volta de uma mesa de jantar no filme de Buñuel.

As fezes — é claro — aparecem aqui apenas como símbolo do que foi separado e pode ser restituído ao uso comum. Mas é possível uma sociedade sem separação? A pergunta talvez esteja mal formulada. Profanar não significa simplesmente abolir e cancelar as separações, mas aprender a fazer delas um uso novo, a brincar com elas. A sociedade sem classes não é uma sociedade que aboliu e perdeu toda memória das diferenças de classe, mas uma sociedade que soube desativar seus dispositivos, a fim de tornar possível um novo uso, para transformá-las em meios puros.

Nada é, porém, tão frágil e precário como a esfera dos meios puros. Também o jogo, na nossa sociedade, tem caráter episódico, depois do qual a vida normal deve retomar seu curso (e o gato a sua caça). E ninguém melhor do que as crianças sabe como pode ser atroz e inquietante um brinquedo quando acabou o jogo de que era parte. O instrumento de libertação converte-se então em um pedaço de madeira sem graça, e a boneca para a qual a menina dirigiu seu amor torna-se um gélido e vergonhoso boneco de cera que um mago malvado pode capturar e enfeitiçar para servir-se dele contra nós.

Esse mago malvado é o grande sacerdote da religião capitalista. Se os dispositivos do culto capitalista são tão eficazes é porque agem não apenas e nem sobretudo sobre os comportamentos primários, mas sobre os meios puros, ou seja, sobre comportamentos que foram separados de si mesmos e, assim, separados da sua relação com uma finalidade. Na sua fase extrema, o capitalismo não é senão um gigantesco dispositivo de captura dos meios puros, ou seja, dos comportamentos profanatórios. Os meios puros, que representam a desativação e a ruptura de qualquer separação, acabam por sua vez sendo separados em uma esfera especial. Exemplo disso é a linguagem. Certamente o poder sempre procurou assegurar o controle da comunicação social, servindo-se da linguagem como meio para difundir a própria ideologia e para induzir a obediência voluntária. Hoje, porém, tal função instrumental — ainda eficaz às margens do sistema, quando se verificam situações de perigo e de exceção — deu lugar a um procedimento diferente de controle, que, ao ser separado na esfera espetacular, atinge a linguagem no seu rodar no vazio, ou seja, no seu possível potencial profanatório. Mais essencial do que a função de propaganda, que diz respeito à linguagem como instrumento voltado para um fim, é a captura e a neutralização do meio puro por excelência, isto é, da linguagem que se emancipou dos seus fins comunicativos e assim se prepara para um novo uso.

Os dispositivos midiáticos têm como objetivo, precisamente, neutralizar esse poder profanatório da linguagem como meio puro, impedir que o mesmo abra a possibilidade de um novo uso, de uma nova experiência da palavra. A Igreja, depois dos dois primeiros séculos de esperança e de expectativa, já tinha concebido sua função com o objetivo essencial de neutralizar a nova experiência da palavra que Paulo, ao colocá-la no centro do anúncio messiânico, havia denominado pistis, fé. Da mesma maneira, no sistema da religião espetacular, o meio puro, suspenso e exibido na esfera midiática, expõe o próprio vazio, diz apenas o próprio nada, como se nenhum uso novo fosse possível, como se nenhuma outra experiência da palavra ainda fosse possível.

Essa aniquilação dos meios puros evidencia-se no dispositivo que, mais que qualquer outro, parece ter realizado o sonho capitalista da produção de um Improfanável. Trata-se da pornografia. Quem tem alguma familiaridade com a história da fotografia erótica sabe que, no seu início, as modelos mostram uma expressão romântica e quase sonhadora, como se a objetiva as tivesse surpreendido, e não visto, na intimidade do seu boudoir. Às vezes, preguiçosamente estendidas sobre um canapé, fingem estar dormindo ou até mesmo lendo, como acontece em alguns nus de Braquehais e de Camille d’Olivier; outras vezes, o fotógrafo indiscreto flagrou-as precisamente quando, sozinhas consigo mesmas, se estão olhando no espelho (é a mise-en-scène preferida por Auguste Belloc). Muito cedo, no entanto, acompanhando a absolutização capitalista da mercadoria e do valor de troca, a expressão delas se transforma e se torna desavergonhada; as poses ficam complicadas e adquirem movimento, como se as modelos exagerassem intencionalmente a sua indecência, exibindo assim a sua consciência de estarem expostas frente à objetiva. Mas é apenas em nosso tempo que tal processo alcança o seu estágio extremo. Os historiadores do cinema registram como novidade desconcertante a seqüência de Monika (1952) na qual a protagonista Harriet Andersson mantém improvisadamente fixo, por alguns segundos, o seu olhar voltado para a câmara (“aqui, pela primeira vez na história do cinema”, irá comentar retrospectivamente o diretor Ingmar Bergman, “estabelece-se um contato despudorado e direto com o espectador”). Desde então, a pornografia certamente banalizou o procedimento: as pornostars, no preciso momento em que executam suas carícias mais íntimas, olham resolutamente para a objetiva, mostrando maior interesse pelo espectador do que pelos seus partners.

Dessa maneira, realiza-se plenamente o princípio que Benjamin já havia enunciado em 1936, ao escrever o ensaio sobre Fuchs: “o que nestas imagens atua como estímulo sexual não é tanto a visão da nudez quanto a idéia da exibição do corpo nu frente à objetiva”. Um ano antes, a fim de caracterizar a transformação que a obra de arte sofre na época da sua reprodutibilidade técnica, Benjamin havia criado o conceito de “valor de exposição” (Ausstellun­gswert). Nada poderia caracterizar melhor a nova condição dos objetos e até mesmo do corpo humano na idade do capitalismo realizado do que esse conceito. Na oposição marxiana entre valor de uso e valor de troca, o valor de exposição sugere um terceiro termo, que não se deixa reduzir aos dois primeiros. Não se trata de valor de uso, porque o que está exposto é, como tal, subtraído à esfera do uso; nem se trata de valor de troca, porque não mede, de forma alguma, uma força-trabalho.

Mas é talvez só na esfera do rosto humano que o mecanismo do valor de exposição encontra o seu devido lugar. É uma experiência comum que o rosto de uma mulher que se sente olhada se torne inexpressivo. Saber que está exposta ao olhar cria o vazio na consciência e age como um poderoso desagregador dos processos expressivos que costumeiramente animam o rosto. Trata-se aqui da descarada indiferença que, antes de qualquer outra coisa, as manequins, as pornostars e as outras profissionais da exposição devem aprender a conquistar: não dar a ver nada mais que um dar a ver (ou seja, a própria e absoluta medialidade). Dessa forma, o rosto carrega-se até chegar a explodir de valor de exposição. Mas exatamente através dessa aniquilação da expressividade o erotismo penetra ali onde não poderia ter lugar: no rosto humano, que não conhece nudez, porque sempre já está nu. Exibido como puro meio para além de toda expressividade concreta, ele se torna disponível para um novo uso, para uma nova forma de comunicação erótica.

Uma pornostar, que presta seus serviços em performances artísticas, levou recentemente tal procedimento ao extremo. Ela se faz fotografar precisamente no momento de realizar ou sofrer os atos mais obscenos, mas sempre de tal maneira que o seu rosto fique bem visível em primeiro plano. E, em vez de simular o prazer, segundo a convenção comum nesses casos, ela simula e exibe — como as manequins — a mais absoluta indiferença, a mais estóica ataraxia. A quem fica indiferente Chloé des Lysses? Certamente ao seu partner. Mas também aos espectadores, que, com surpresa, se dão conta de que a star, mesmo sabendo perfeitamente estar exposta ao olhar, não tem com eles sequer a mínima cumplicidade. O seu semblante impassível rompe assim toda relação entre o vivido e a esfera expressiva; não exprime mais nada, mas se dá a ver como lugar imaculado da expressão, como puro meio.

O que o dispositivo da pornografia procura neutralizar é esse potencial profanatório. O que nele acaba sendo capturado é a capacidade humana de fazer andar em círculo os comportamentos eróticos, de os profanar, separando-os do seu fim imediato. Mas enquanto, dessa maneira, os mesmos se abriam para um possível uso diferente, que dizia respeito não tanto ao prazer do partner mas a uni novo uso coletivo da sexualidade, a pornografia intervém nessa altura para bloquear e para desviar a intenção profanatória. O consumo solitário e desesperado da imagem pornográfica acaba substituindo a promessa de um novo uso.

Todo dispositivo de poder sempre é duplo: por um lado, isso resulta de um comportamento individual de subjetivação e, por outro, da sua captura numa esfera separada. Em si mesmo, o comportamento individual não traz, muitas vezes, nada de reprovável e até pode expressar uma intenção liberatória; reprovável é eventualmente — quando não foi obrigado pelas circunstâncias ou pela força — apenas o fato de se ter deixado capturar no dispositivo. Não é o gesto impudente da pornostar nem o rosto impassível da manequim, como tais, que devem ser questionados; infames são, isso sim — política e moralmente — o dispositivo da pornografia, o dispositivo do desfile de moda, que os desviaram do seu uso possível.

O Improfanável da pornografia — qualquer improfanável — baseia-se no aprisionamento e na distração de uma intenção autenticamente profanatória. Por isso é importante toda vez arrancar dos dispositivos — de todo dispositivo — a possibilidade de uso que os mesmos capturaram. A profanação do improfanável é a tarefa política da geração que vem.

*Texto originalmente publicado em: AGAMBEN, Giorgio. Profanações. São Paulo: Boitempo, 2012.

Ética cresce em importância no mundo com menos religião, diz Luciano Floridi (Folha de S.Paulo)

Folha de S.Paulo

Raphael Hernandes – 19 de fevereiro de 2020

Ser um pioneiro em um dos ramos de uma área do conhecimento que possui milênios de existência, a filosofia, é para poucos. E esse é o caso do italiano Luciano Floridi, 55, professor da Universidade de Oxford.

Ele é um dos primeiros, e mais proeminentes, nomes nos campos de filosofia e ética da informação. Esses ramos estudam tópicos ligados à computação e tecnologia. É conselheiro da área para o governo britânico e trabalhou para empresas gigantes da área, como Google e a chinesa Tencent.

Ele também se destaca quando o assunto é especificamente IA (inteligência artificial). Floridi foi um dos 52 autores das “Orientações éticas para uma IA de confiança”, da União Europeia.

À Folha, falou sobre temas que foram desde o elementar na sua área, como a definição de inteligência artificial, a discussões mais complexas acerca de como pensar nossa relação com a tecnologia.

Para ele, a discussão moral cresce em importância na era digital. “Temos menos religião. As pessoas tendem a associar ética à religião um pouco menos do que no passado”, diz. “Ela precisa se sustentar sozinha.”

A conversa por videochamada durou aproximadamente uma hora e foi interrompida apenas uma vez: quando a mulher de Floridi, brasileira, foi embarcar num avião para visitar o país natal e ele quis desejar uma boa viagem.

A fala paciente e educada deu lugar a irritação quando o assunto se tornou pensamento de Nick Bostrom, também filósofo da Universidade de Oxford, que versa sobre os riscos de a IA destruir a humanidade.

“A IA descrita na singularidade e na superinteligência de Nick Bostrom não é impossível”, diz. “Da mesma forma que é possível que uma civilização extraterrestre chegue aqui, domine e escravize a humanidade. Impossível? Não. Vamos nos planejar para o caso de isso acontecer? Só pode ser piada.”

*

Como definir IA? São artefatos construídos pelo homem capazes de fazer coisas no nosso lugar, para nós e, às vezes, melhor do que nós, com uma habilidade especial que não encontramos em outros artefatos mecânicos: aprender a partir de sua performance e melhorar.
Uma forma de descrever IA é como uma espécie de reservatório de operações para fazer coisas que podemos aplicar em contextos diferentes. Podemos aplicar para economizar eletricidade em casa, para encontrar informações interessantes sobre pessoas que visitam minha loja, para melhorar a câmera do meu celular, para recomendar em um site outros produtos dos quais o consumidor gostaria.

Na academia há muitas opiniões contrastantes sobre o que é IA. A definição de IA é importante? Uma definição diz “isso é aquilo” e “aquilo é isso”, como “água é H2O” e “H2O é água” e não tem erro. Não temos uma definição sobre IA dessa forma, mas também não temos definição de muitas coisas importantes na vida como amor, inteligência e por aí vai. Muitas vezes temos um bom entendimento, conseguimos reconhecer essas coisas ao vê-las. É crucial ter um bom entendimento da tecnologia porque aí temos as regras e a governança de algo que compreendemos.

Qual a importância da ética hoje, uma era digital? Ela se tornou mais e mais importante porque nós temos algo mais e algo menos. Temos menos religião, então ela precisa se sustentar sozinha. Não se pode justificar algo dizendo “porque a Igreja diz isso” ou porque “Deus mandou”. Um pouco menos de religião tornou o debate ético mais difícil, mas mais urgente.
E temos algo mais: falamos muito mais uns com os outros do que em qualquer momento no passado. Estou falando de globalização. De repente, diferentes visões sobre o que está certo e errado estão colidindo de uma forma que nunca aconteceu. Quanto mais tecnologia, ciência e poder tivermos sobre qualquer coisa –sociedade, o ambiente, nossas próprias vidas–, mais urgentes ficam as questões éticas.

E por que discutir ética em IA? Até recentemente, entendíamos em termos de “intervenções divinas” (para as pessoas do passado que acreditavam em Deus), “intervenções humanas” ou “intervenções animais”. Essas eram as forças possíveis. É como se tivéssemos um tabuleiro de xadrez em que, de repente, surge uma peça nova. Claramente, essa peça muda o jogo todo. É IA.
Se você tem algo que pode fazer coisas no mundo de forma autônoma e aprendendo, de modo que podem mudar seus próprios programas, sua atividade requer entendimento de certo e errado: ética.

Como respondemos essas perguntas e definimos os limites? No último ano tivemos um florescer de códigos éticos para IA. Dois em particular são bem importantes pelo alcance. Um é o da União Europeia. Fizemos um bom trabalho, penso, e temos uma boa estrutura na Europa para entender IA boa e não tão boa. O outro é da OCDE, uma estrutura semelhante.

Críticos dizem que esses documentos não são específicos o suficiente. O sr. vê eles como um primeiro passo? Mostra que, pelo menos, algumas pessoas em algum lugar se importam o suficiente para produzir um documento sobre essa história toda. Isso é melhor do que nada, mas é só isso: melhor que nada. Alguns deles são completamente inúteis.
O que acontece agora é que toda empresa, toda instituição, todo governo sente que não pode ser deixado para trás. Se 100 empresas têm um documento com suas estruturas e regras para IA, se sou a empresa 102 também preciso ter. Não posso ser o único sem.
Precisamos fazer muito mais. Por isso, as diretrizes verdadeiras são feitas por governos, organizações ou instituições internacionais. Se você tem instituições internacionais, como a OECD, União Europeia, Unesco, intervindo, já estamos em um novo passo na direção certa.
Olhe, por exemplo, a IA aplicada a reconhecimento facial. Já tivemos esse debate. Uso reconhecimento facial na minha loja? No aeroporto? Esse buraco tem que ser tapado e as pessoas o estão tapando. Eu tendo a ser um pouco otimista.

E como estamos nessa tradução de diretrizes em políticas práticas? Num contexto geral, vejo grandes empresas desenvolvendo serviços de consultoria para seus clientes e ajudando a verificar se estão de acordo com as regras e regulações, bem como se levaram em consideração questões éticas.
Há lacunas e mais precisa ser feito, mas algo já está disponível. As pessoas estão se mexendo em termos de legislação, autorregulação, políticas ou ferramentas digitais para traduzir princípios em práticas. O que se pode fazer é se certificar que os erros aconteçam o mais raramente possível e que, quando acontecerem, haja uma forma de retificar.

Com diferentes entidades, governos, instituições e empresas criando suas regras para uso de IA, não corremos o risco de ficar perdidos em termos de qual documento seguir? Um pouco, sim. No começo pode ter discordância, ou visões diferentes, mas isso é algo que já vivemos no passado.
Toda a história de padrões industriais e de negócios é cheia desses desacordos e, depois, reconciliação e encontrar uma plataforma comum para todos estarem em concordância.

As grandes empresas de tecnologia estão pedindo por regulação, o que é estranho, visto que elas normalmente tentam autoregulação. O sr. esteve com uma delas, a Google. Por que esse interesse das empresas de tecnologia agora? Há alguns motivos para isso. O primeiro é certeza: eles querem ter certeza do que é certo e errado. Empresas gostam de certeza, mais até do que de regras boas. Melhor ter regras ruins do que regra nenhuma. A segunda coisa é que entendem que a opinião pública pede por uma boa aplicação de IA. Dado que é opinião pública, tem que vir da sociedade o que é aceitável e o que não é. Empresas gostam de regulações desde que elas ajudem.

Há diferença ao pensar em regulações para sistemas com finalidades diferentes? Por exemplo, é diferente pensar em regulação em IA para carros automatizados e IA para sugestão de músicas? Sim e não. Há regulações que são comuns para muitas áreas. Pense nas regulações de segurança envolvendo eletricidade. Não importa se é uma furadeira elétrica, um forno elétrico ou um carro elétrico. É eletricidade e, portanto, tem regulações de segurança. Isso se aplicaria igualmente à IA. Mas aí você tem algo específico: você tem segurança ligada aos freios para o carro, não para o micro-ondas. Isso é bem específico. Penso, então, numa combinação dos dois: princípios que cubram várias áreas diferentes, diretrizes que se espalhem horizontalmente, mas também verticalmente pensando em setor por setor.

Quão longe estamos de ter essas diretrizes estabelecidas? Falamos de meses, anos, uma geração? Alguns anos. Eu não me surpreenderia se tivéssemos essa conversa em cinco anos e o que dissemos hoje fosse história.

E como funciona esse processo de pensamento na prática? Por exemplo, no caso de carros autônomos, como se chega a uma conclusão em relação à responsabilidade do caso de acidente: é do motorista, da fabricante, de quem? Tínhamos isso em muitos outros contextos antes da IA. A recomendação é distribuir a responsabilidade entre todos os agentes envolvidos, a menos que eles consigam provar que não tiveram nada a ver com acidente.
Um exemplo bem concreto: na Holanda, se você andar de bicicleta ao lado de alguém, sem problemas. Você pode andar na rua, lado a lado com alguém e tudo bem. Se uma terceira pessoa se junta a vocês, é ilegal. Não se pode ir com três pessoas lado a lado numa rua pública. Quem recebe a multa? Todos os três, porque quando A e B estavam lado a lado e o C chega até eles, A e B poderiam reduzir a velocidade ou parar totalmente para que o C passasse. Agora, na mesma Holanda, outro exemplo, se dois barcos estão parados na margem do rio lado a lado, é legal. Se um terceiro barco chegar e parar ao lado deles, é ilegal. Nesse caso, somente o terceiro barco tomaria uma multa. Por quê? Porque os outros dois barcos não podem ir para lugar algum. Não é culpa deles. Pode ver que são dois exemplos bastante elementares, bem claros, com três agentes. Em um caso igualmente responsáveis e a responsabilidade é distribuída, no outro caso apenas um responsável.
Com IA é o mesmo. Em contextos nos quais tivermos uma pessoa, doida, usando IA para algo mal, a culpa é dessa pessoa. Não tem muito debate. Em muitos outros contextos, com muitos agentes, quem será culpado? Todos, a menos que provem que não fizeram nada de errado. Então o fabricante do carro, do software, o motorista, até mesmo a pessoa que atravessou a rua no lugar errado. Talvez haja corresponsabilidade que precise ser distribuída entre eles.

Seria sempre uma análise caso a caso? Acho que é mais tipos de casos. Não só um caso isolado, mas uma família de casos.
Façamos um exemplo realista. Se uma pessoa dirigindo em um carro autônomo não tem como dirigir, usar um volante, nada. É como eu em um trem, tenho zero controle. Aí o carro se envolve num acidente. De quem é a culpa? Você culparia um passageiro pelo acidente que o trem teve? Claro que não. Num caso em que haja um volante, em que haja um grande botão vermelho dizendo “se algo der errado, aperte o botão”… Quem é responsável? O fabricante do carro e o motorista que não apertou o botão.
Precisamos ser bastante concretos e nos certificar de que existem tipologias e, não exatamente caso a caso, mas compreendendo que caso tal pertence a tal tipologia. Aí teremos um senso claro do que está acontecendo.

Em suas palestras, o sr. menciona um uso em excesso e a subutilização de IA. Quais os problemas nessas situações? O excesso de uso, com um exemplo concreto, é como o debate que temos hoje sobre reconhecimento facial. Não precisamos disso em todos os cantos. É como matar mosquitos com uma granada.
A subutilização é típica, por exemplo, no setor de saúde. Não usamos porque a regulação não é muito clara, as pessoas têm medo das consequências.

A IA vai criar o futuro, estar em tudo? Temos uma grande oportunidade de fazer muito trabalho bom, tanto para nossos problemas sociais, desigualdade em particular, e para o ambiente, particularmente aquecimento global. É uma tecnologia muito poderosa que, nas mãos certas e com a governança correta, poderia fazer coisas fantásticas. Me preocupa um pouco o fato de que não estamos fazendo isso, estamos perdendo a oportunidade.
O motivo de a ética ser tão importante é exatamente porque a aplicação correta dessa tecnologia precisará de um projeto geral sobre a nossa sociedade. Gosto de chamá-lo de “projeto humano”. O que a sociedade irá querer. Qual futuro queremos deixar para as próximas gerações? Estamos preocupados com outras coisas, como usar IA para gerar mais dinheiro, basicamente.

E os direitos dos robôs? Deveríamos estar pensando nisso? [Risos]. Não, isso é uma piada. Você daria direitos à sua lavadora de louças? É uma peça de engenharia. É um bom entretenimento [falar de direito dos robôs], podemos brincar sobre isso, mas não falemos de Star Wars.

O sr. é crítico em relação à ficção científica que trata do fim do mundo por meio de IA ou superinteligência. Não vê a ideia de Nick Bostrom como uma possibilidade? Acho que as pessoas têm jogado com alguns truques. Esses são truques que ensinamos a alunos de filosofia no primeiro ano. O truque é falar sobre “possibilidade” e é exatamente essa a palavra que usam.
Deixe-me dar um exemplo: imagine que eu compre um bilhete de loteria. É possível que eu ganhe? Claro. Compro outro bilhete de outra loteria. É possível que eu ganhe da segunda vez? Sim, mas não vai acontecer. É improvável, é insignificantemente possível. Esse é o tipo de racionalização feita por Nick Bostrom. “Ah! Mas você não pode excluir a possibilidade…” Não, não posso. A IA descrita na singularidade e na superinteligência de Nick Bostrom não é impossível. Concordo. Significa que é possível? Não.
Da mesma forma que é possível que uma civilização extraterrestre chegue aqui, domine e escravize a humanidade. Impossível? Hmmm. Não. Vamos nos planejar para o caso de isso acontecer? Só pode ser piada.

A IA é uma força para o bem? Acho que sim. Como a maioria das tecnologias que já desenvolvemos são. Quando falamos da roda, alfabeto, computadores, eletricidade… São todas coisas boas. A internet. É tudo coisa boa. Podemos usar para algo ruim? Absolutamente.
Sou mais otimista em relação à tecnologia e menos em relação à humanidade. Acho que faremos uma bagunça com ela. Por isso, discussões como a do Nick Bostrom, singularidade, etc. não são simplesmente engraçadas. Elas distraem, e isso é sério.
Conforme falamos, temos 700 milhões de pessoas sem acesso a água limpa que poderiam usar IA para ter uma chance. E você realmente quer se preocupar com algum Exterminador do Futuro? Skynet? Eticamente falando, é irresponsável. Pare de ver Netflix e caia na real.

Reportagem: Raphael Hernandes/ Edição: Camila Marques, Eduardo Sodré, Roberto Dias / Ilustrações e infografia: Carolina Daffara

Diego Viana: Aí está o século que previmos

postagem original

Diego Viana

Ao que parece, o século XXI começa agora. É o que leva a crer a leitura de tantas análises desta pandemia e tantas reflexões sobre suas consequências sociais e econômicas. E isto, venham de onde vierem: epidemiologistas, estatísticos, antropólogos, filósofos, historiadores, até mesmo economistas. Ou seja, o mundo não será o mesmo depois de meses com populações trancadas em casa, empresas e autônomos indo à falência, cadeias de valor rompidas, pacotes de estímulo governamentais, vigilância total (fundindo a tradicional vigilância sanitária com formas menos bem-intencionadas).

Talvez seja cedo para decretar algo tão drástico como a inauguração de uma era. A rigor, nada impede que o trauma acabe sendo curto, ao menos no campo da saúde (no econômico é um pouco mais difícil), e continuemos a operar como nas últimas, digamos, duas décadas. Mas isto seria só um outro adiamento: mais cedo ou mais tarde, o século XXI vai começar. Mesmo que – vamos supor – do dia para a noite as infecções e mortes mundo afora começassem a diminuir e desaparecessem, como parece ter sido o caso com outros vírus do passado. Então vale a pena simplesmente postular que esta pandemia é o marco inicial do século e explorar o que isto quer dizer.

*

HxB: 110.9 x 156.4 cm; Öl auf Leinwand; Inv. 1055

Mas que século XXI? Esta é mesmo a primeira pergunta: o que quer dizer uma passagem histórica, o início de um século, como tantos estão – estamos – prevendo? O que quer dizer isto que coloquei acima: “o mundo não será o mesmo”? E talvez ainda possamos ampliar a pergunta, deixá-la mais interessante e difícil de explorar: é mesmo o século XXI que está começando, por oposição a “século XX” ou “século XIX”, ou é algum outro tipo de período, talvez mais extenso, talvez mais restrito?

Temos o hábito de tratar 1914 como o início do século XX, porque foi quando Gavrilo Princip matou o arquiduque austríaco em Sarajevo e, na reação em cadeia, a ordem mundial pós-napoleônica, eurocêntrica e imperialista foi a pique. Essa é a cronologia famosa de Hobsbawm e ajuda muito a pensar em termos de transições súbitas e traumáticas. Mas é importante frisar que não foi só uma transição geopolítica. O Século XX começa com a Primeira Guerra Mundial também por ser o gesto inaugural dos fenômenos de massa – uma matança em massa! –, que se rebate nas funções e tipologias das técnicas e das instituições características do tempo que começava.

É claro que não dá para comparar uma doença que se espalha pelo planeta durante alguns meses, como tantas outras já fizeram, a uma guerra de mais de quatro anos que mata milhões, derruba impérios e força uma transformação profunda nas mentalidades. Mas essa é exatamente a comparação que estamos sendo forçados a fazer, então nada nos resta senão explorá-la. Que tipo de fenomenologia, que tipo de tecnologia, que geopolítica etc., estão em jogo se admitimos que o século XXI começa agora?

O cerne do problema está no seguinte ponto: o que se espera para o século XXI? E aqui é que chegamos ao que há de realmente desconfortável, aquilo que explica por que estamos entrando num mundo novo e incerto. E talvez explique também por que estamos tão impacientes para declará-lo inaugurado. Agora é a hora de encarar a evidência de que as perspectivas para as próximas décadas, na boca de quase todo mundo, por todo lado, são bastante sombrias. É assim no campo do clima, da agricultura, da economia, da política e também da saúde.

Seja qual for a atitude que temos no dia-a-dia em relação a todos esses campos, sugiro tomarmos como ponto de partida uma postura otimista. Por motivos puramente metodológicos: mesmo que você seja catastrofista e acredite que a humanidade (como espécie) ou a civilização (como forma de organização) não vão chegar até 2100, peço que deixe de lado por um momento essa filosofia e considere que, sim, vamos desenvolver tecnologias, sabedorias e práticas que nos ajudarão a contornar desafios como a mudança climática (e, se quiser, os exércitos de robôs superinteligentes e psicopatas), chegando saudáveis e prósperos ao próximo século.

Pois bem. Mesmo adotando essa perspectiva, o que se espera para o século XXI é que seja um período duro, eivado de catástrofes – ondas de calor, quebras de safra, pandemias, cidades inundadas, territórios ressecados, migrações forçadas, pragas, guerras por água e terra arável. Por um lado, sabemos que a lógica que orientou o grosso da atividade humana nos últimos séculos é incompatível com os sistemas naturais dos quais essa mesma lógica depende. Por outro, não temos ideia de como transitar para uma lógica compatível, embora alguns grupos tenham muitas, muitíssimas ideias para modos de vida diferentes. Acontece que a viabilidade da transição segue mais do que incerta.

Antes de avançar, podemos chegar a uma primeira resposta. Dizer que o século XXI começa com a pandemia do Sars-CoV-2, com uma doença de nome tão pouco impactante (Covid-19, uma porcaria duma sigla!), é dizer que estamos pela primeira vez encarando uma situação que, já esperávamos, será típica do nosso século. Estamos vendo, concretamente, nas nossas cidades, nos nossos bolsos e, para alguns, na própria carne, o que significa um mundo de desastres amplificados, multidimensionais, rapidamente disseminados em escala global, que inviabilizam a vida normal por períodos indeterminados.

Discutimos sobre estratégias de mitigação com um horizonte de possibilidades cada vez mais exíguo; preparamos formas de adaptação cada vez mais drásticas. Mas dificilmente conseguimos incluir no cômputo dessas atitudes todo o escopo das transformações necessárias, porque, no fim das contas, os piores cenários são praticamente inconcebíveis para nós. Pelo menos, porém, enquanto tentamos enfiar na cabeça a seriedade do que será o século XXI, podemos nos dedicar a alguns exercícios de pensamento.

I – A moldura moribunda

A primeira consequência de reconhecer a próxima etapa histórica como uma etapa de adaptação – conflituosa ou harmoniosa, tanto faz – a condições duras, já podemos ver, é que está ficando claro como as instituições montadas no século XX, ou mesmo nestas duas primeiras décadas de século XXI (no sentido cronológico estrito) são insuficientes para dar conta dos problemas que temos adiante. Mas me parece que o problema vai além do institucional. Estamos atados a um campo conceitual e mesmo categorial que não dá mais conta de recobrir nosso mundo com sentido.

Provavelmente nossa maior falha, como geração, tenha sido o parco aprendizado que tiramos de episódios como a crise financeira de 2008, as secas, inundações, queimadas e pragas, as milhares de mortes de refugiados no Mediterrâneo etc. No mínimo, o que essas catástrofes expõem é uma certa tendência inata nossa de fazer todo o possível para manter intactos os arranjos institucionais, modos de existir, formas de organização da vida em comum (chame como quiser) com que estamos acostumados. Mesmo quando já é patente que se tornaram obsoletos, inviáveis, até mesmo suicidas. Talvez isso aconteça porque o discurso e o próprio pensamento fluem e aportam em categorias moribundas.

Algumas pistas dessa morte anunciada: a chamada “ascensão do populismo” encarnada em Trump, Orbán e outros (que nem merecem menção) é muito mais a conclusão lógica desse esforço de manter os arranjos (ou as aparências) do que uma ruptura, como gostamos de pensar – ou mesmo um sintoma, já que ela não sinaliza o problema, ela dá sequência ao problema. Pensar que se trata de uma ruptura, isso sim é um sintoma: revela a crença voluntariamente ingênua de que “isto vai passar”, ou seja: de que vamos voltar aos arranjos civilizacionais em seu estado, por assim dizer, puro.

“Ascensão do populismo”, “volta do nacionalismo”, tudo isso são expressões anêmicas, eufemismos neuróticos, para a recusa em reconhecer as máquinas de guerra que estão se montando nas esferas de poder. Essas figuras todas professam um discurso negacionista do clima, mas na prática são menos negacionistas do que quem pensa que tem volta, que o mundo dos anos 2020 será um mundo de Clintons, Blairs, Merkels, Fernandos Henriques. Os poderes que orbitam em torno dos “líderes populistas” estão se preparando e armando para manter o acesso a recursos que, já está previsto, se tornarão cada vez mais escassos, enquanto o resto do mundo cai em pedaços. Exatamente como os “survivalists” ou “preppers” americanos que constróem bunkers, os enchem de enlatados e os cercam de metralhadoras. (Não por acaso, essas pessoas, em geral, dão apoio a esses líderes…)

Mas é isso que conduz ao seguinte problema: se 2020 inaugura o século XXI como um período de pessimismo e catástrofes em série, então o que se encerra com o século XX, ou esse intervalo que foram as últimas décadas (talvez desde a queda da União Soviética, se formos continuar seguindo a cronologia de Hobsbawm), é um período de grande otimismo. Se for assim, então a página a ser virada não é a de um século, mas de algo muito mais extenso, correspondente a toda a era de espírito expansivo, de crença na prosperidade e no progresso contínuos, material e espiritualmente. É um período que remete, pelo menos, ao século XVIII, era do Iluminismo, da industrialização, das revoluções na França, no Haiti e nas 13 colônias americanas.

É dessa era que herdamos o principal das nossas categorias de pensamento e parâmetros de ação; e, consequentemente, nossos arranjos institucionais na política, na economia e em tantos outros campos. Quase tudo que se disse, fez e pensou nesse período considerava que, dali por diante, as condições de vida só melhorariam – para os humanos, claro –, e com elas a humanidade como um todo, espiritualmente – ou melhor, a humanidade que subscrevesse às categorias de vida e pensamento disseminadas a partir da Europa. Estávamos “aprendendo a caminhar com as próprias pernas”, sem a tutela de autoridades espirituais ou seculares, pensava Kant. O saber se tornaria enciclopédico e acessível a todos, pensava Voltaire. A miséria seria eliminada, a democracia se tornaria dominante, a tecnologia avançaria tanto que a subsistência estaria garantida com 15 horas de trabalho por semana, chegou a pensar Keynes. Na década de 1990, além da ideia de “fim da história” que ficou marcada na testa de Francis Fukuyama para sempre, os economistas acreditaram, com um espírito que faz pensar nos delírios dos alquimistas, ter desenvolvido a fórmula da “grande moderação” – e, portanto, as recessões estavam superadas para sempre.

Vale dizer que o subtexto dos movimentos revolucionários de todo esse período, pelo menos a grande maioria deles, também era o da plena realização dos potenciais criativos da humanidade. A tomada dos meios de produção pelos trabalhadores não chegou a ser, na prática, uma ruptura com o passo faustiano da modernização. Ao contrário, desde Fourrier, Owen e Saint-Simon, sempre se colocou como decorrência dessa mesma modernização, necessária e conceitualmente demonstrada, para Marx (embora ele tivesse, assim como Engels, uma visão mais elaborada do que viria a ser a questão ecológica). Não é outro o espírito de Lênin quando fala do socialismo como “eletricidade e sovietes”, para dar um exemplo sonoro.

*

Evoquei todos esses nomes para dar estofo a um único argumento: estamos nos iludindo, um pouco como já nos iludimos depois de 2008, ao acreditar que a crise do coronavírus é um ponto de partida para a volta de políticas sociais, seguridade pública, uma nova era do Estado de Bem-Estar, uma espécie de keynesianismo-fordismo sem as amarras da produção fordista, ou seja, só com a conciliação de classes de inspiração keynesiana. Dizer que “o neoliberalismo morreu” porque os Estados Unidos, a Europa e vários países asiáticos estão dispostos a despejar trilhões de dólares no mercado, não apenas com afrouxamento monetário, mas com políticas fiscais e transferências diretas a trabalhadores e pequenos empresários, é um enorme exagero. Quem talvez vá parar na UTI é a globalização, ainda mais depois que os americanos saltaram para absorver toda a oferta de material hospitalar, numa demonstração de ausência de cooperação entre nações. Mas essa seria só uma decorrência pontual.

Podemos até esperar que alguns mecanismos emergenciais sejam perenizados, para fazer frente a outras situações de crise súbita, mas dificilmente passará disso. A resistência dos poderosos a responder à epidemia, seja com o isolamento social, seja com os pacotes de estímulo, é mais instrutiva do que o açodamento com que depois tiveram de correr atrás do prejuízo. As máquinas de mentiras que sustentaram medidas suicidas em várias partes, mas sobretudo nos Estados Unidos e ainda mais no Brasil, são instrumentos característicos de nosso tempo e isso não vai mudar tão facilmente.

Por sinal, as medidas de vigilância, para não dizer espionagem, usadas na Coreia do Sul e, em seguida, Israel, com a finalidade momentânea de traçar as linhas de transmissão do vírus, estarão disponíveis na condição de laboratório em tempo real, assim que o momento mais agudo da crise passar, para aperfeiçoamento e generalização por esses mesmos governos, e outros. A propósito, vale dizer que, no caso de Israel, o laboratório em tempo real já estava funcionando antes, ele foi apenas expandido para ficar de olho também na população israelense. Este é um ponto sensível, porque sabemos que todos os esforços da última década para denunciar os gigantescos esquemas de vigilância digital, envolvendo multinacionais e governos, foram fragorosamente derrotados: os “whistleblowers” da última década ou bem estão presos, como Julian Assange e Chelsea Manning, ou exilados, como Edward Snowden, ou mortos, como Aaron Swartz.

É tão absurdo imaginar que, depois da pandemia, vamos recuperar o papel socioeconômico dos governos ou a solidariedade entre cidadãos quanto crer, como coloquei acima, que a onda dos políticos xenófobos e estúpidos vai passar para dar lugar a novos anos 90. Trata-se de uma ingenuidade escolhida, porque a alternativa, pelo menos no curto prazo, é terrível. Pode-se analisar o fracasso de Corbyn e mesmo a perda de impulso de Sanders a partir dos erros que cometeram ou das conjunturas eleitorais de seus países, mas o fato é que seu papel histórico parece ser o de anteparos a forças terríveis, e os anteparos, por natureza, não vão muito longe.

Infelizmente, há um descompasso muito grande entre os incentivos para mudar a lógica da atividade humana – nem sequer se sabe ainda, ao certo, de que maneira – e os incentivos para recrudescer os esforços para encastelar-se (aqueles que podem) nos restos possíveis do século XX, adiando, contornando e terceirizando os grandes riscos e as grandes crises, reprimindo e, quando necessário, exterminando os focos de revolta e perturbação – o que inclui os migrantes. Por enquanto, ainda é muito fácil identificar perturbações e aniquilá-las (o termo da moda é “neutralizar”) antes que causem maiores danos, ou então lançá-las às costas de países e populações com menos capacidade de se defender. Por sinal, Saskia Sassen se refere a esse procedimento como “expulsões”, em livro de título homônimo.

*

FRIEDRICH, Caspar David_Barco de pesca entre dos rocas en una playa del Mar Báltico, c. 1830-1835_(CTB.1994.15)

Em geral, os analistas da geopolítica têm apostado que um resultado de toda essa crise será o recrudescimento do nacionalismo, do controle sobre as populações e das mensagens ditas “populistas”, contra a aparente volta da confiança na ciência, da solidariedade e das redes de proteção social. Ou seja, quem vai dar a letra são os Orban, Netanyahu e quejandos deste mundo. E nesse sentido, a recusa dos europeus em criar os tais “coronabonds” é péssimo sinal.

Nada de luz no fim do túnel, portanto? Acho que não é bem assim. O subtexto desse pessimismo é que a humanidade vai entrar no século XXI trabalhando com as mesmas categorias de interpretação de seu mundo e de orientação de sua ação com que atravessou os períodos anteriores, mas numa era em que as condições concretas do planeta são amplamente desfavoráveis a esses modos de proceder.

No curto prazo, essas análises parecem ter razão, já que a intenção de desenvolver novas categorias e formas de vida parece quase nula, restrita a nichos com pouquíssima reverberação. Mas é claro que estamos falando apenas do começo do século, ou do começo de uma época, podemos dizer; nada está escrito na pedra e a dissonância entre a estratégia de poder que passou do tempo e as pressões da realidade pode acabar se mostrando excessiva. Resta ver quanto tempo isso vai levar.

Ainda por cima, as projeções de uma perda maior de liberdade e de influência da sociedade civil ressoam com preocupações que já se ouviam, não só em relação às ações dos líderes mais retrógrados, tentando forçar a barra para manter ao máximo o equilíbrio de poder parecido com o anterior, mas também ao que poderiam fazer governos mais alinhados com os desafios do século. É o que leva André Gorz, por exemplo, a falar em “ecofascismo”, temendo que as restrições impostas por esses governos, num mundo que deixa de se expandir, exigissem chegar ao ponto do uso reiterado da força, em suma, ao autoritarismo, para pôr em prática as medidas necessárias de adaptação.

Em todo caso, todas essas previsões trabalham com a perspectiva de que as categorias tradicionais da economia, da política e da diplomacia se manterão intactas. Todo o problema reside aí. Também reside aí o alcance daquele exercício que sugeri no início: para poder ser otimista quanto ao estado em que estaremos no fim do século, vai ser preciso um trabalho cuidadoso sobre essas categorias, em todas as áreas da vida.

2 – O óbvio e o absurdo

Não faltarão referências para dizer que, apesar de algumas indicações pontuais em sentido contrário, a humanidade nunca viveu período melhor. É o que lemos, por exemplo, no livro de divulgação do badalado economista Angus Deaton, que faz uma ode da modernidade industrial e capitalista por meio da comparação com o mundo que veio antes, pré-industrial e pré-capitalista.

Sempre me pareceram estranhas essas defesas do capitalismo – que se apresentam, de fato, como defesas contra seus detratores – que o contrapõem à vida como era até o século XVIII. A estranheza vem do fato de que muito pouca gente estaria disposta a assumir uma postura de defesa da vida material tal como era, digamos, entre os séculos XV e XVIII, o que faz a apologia da modernidade soar como se ecoasse no vácuo. Além disso, não estamos na era clássica ou pré-moderna, de modo que nossos problemas e nossas escolhas nada têm a ver com o que foram naquele momento. Pouco importa o que a humanidade conseguiu fazer no tempo da máquina a vapor. Temos que enfrentar o que nos aflige hoje. Agora.

Deaton, em particular, faz a curiosa escolha de comparar o desenvolvimento econômico ao filme “The Great Escape” (Fugindo do Inferno), que narra a tentativa de fuga de prisioneiros de guerra americanos de um campo nazista. Escolha curiosa, mas ilustrativa: para o economista, ao inventar a produção industrial, as finanças modernas e tudo que vem junto, a humanidade teria escapado das amarras de uma natureza hostil. Posso até entender que se queira comparar o mundo sujeito aos rigores da natureza a uma prisão (nazista?!), mas se escapamos… escapamos para onde? Estaríamos então num mundo de puro espírito, descolado de qualquer determinante material? Ou será que simplesmente assumimos, nós mesmos, o papel de natureza hostil, encarnada numa monstruosidade que acreditou estar liberta da própria carne (e foi assim que se tornou monstruosa)? Sempre me surpreende que pessoas tão qualificadas possam repetir tanto uma argumentação tão pueril.

Mas não é preciso adotar esse simplismo apologético para reconhecer que a modernidade, naquilo que ela se propôs a fazer (sem querer antropomorfizá-la), foi muito bem-sucedida. Basta entrar nos indicadores da Agenda 2030, da ONU, para ver que a proporção de indivíduos passando fome no mundo nunca foi tão baixa, centenas de milhões de pessoas foram alçadas para fora das condições de miséria, doenças transmissíveis matam muito menos do que há um século, o analfabetismo está em baixa no mundo e assim por diante. Deixando de lado a constatação de que esses mesmos indicadores apontam um ligeiro retrocesso a partir de 2015, pode-se perfeitamente aceitar como verdadeira a avaliação otimista e, mesmo assim, manter-se pessimista quanto ao futuro. O primeiro motivo é evidente: todos esses indicadores falam sobre o passado e só dão sustentação ao espírito esperançoso da modernidade pós-Iluminismo. O segundo motivo é que justamente esses dados tão encorajadores podem estar na raiz de muitos dos problemas que esperamos enfrentar em breve – ou melhor, já estamos enfrentando, ainda que sem perceber. (E se a pandemia tivesse coincidido com a seca de 2014-2015?)

É neste segundo motivo que temos que nos concentrar. Assim como não é o caso de louvar os ganhos técnicos, econômicos, sociais e mesmo políticos dos últimos séculos, como se ainda estivéssemos enredados nos mesmos problemas, tampouco é o caso de deplorar as escolhas do passado, como se quem as fez estivesse mergulhado nos nossos problemas atuais. É importante não distorcer o passado, isto é, o caminho que nos trouxe até aqui, que é o que aconteceria se fôssemos julgá-lo com um olhar contaminado por tudo que estamos vivendo agora – ou, se preferir, por tudo que sabemos agora. Os excessos, as falhas, as crises daquilo que se encerra com esta eclosão do século XXI são precisamente aquilo que nos revela os desafios vindouros, porque as mudanças pelas quais nós passamos, e conosco nosso mundo, são as próprias fontes dos problemas que mudam e, com eles, as questões e, por fim, os conhecimentos.

Cabe ainda acrescentar uma outra pequena pergunta: não seriam os próprios indicadores dependentes de categorias cujos prazos de validade já começam a expirar? São, afinal, recortes do mundo que surgiram e se desenvolveram na era da modernidade otimista, ou seja, pertencem a ela. Neste caso, o problema estaria na insistência em tentar entender os desafios à frente com a lógica adequada a problemas e condições que ficaram para trás.

*

O que quer dizer, então, uma mudança de categorias? Pensemos nas palavras que mais usamos para entender ou avaliar o mundo em que vivemos; coisas como “eficiência”, “crescimento”, “desenvolvimento”, que associamos à economia; mas também palavras que usamos em outros contextos, como o par “democracia”/”ditadura”, “opinião pública”, “liberdade”, no ambiente político; e algumas noções mais híbridas, como “emprego”, “família”, “nação”; dá mesmo para entrar em mais detalhes, como “setor privado/público”, “exportação”, “aposentadoria”, “civilização”, “modernidade”, “produção”. E nem mencionei termos mais técnicos, como PIB, déficit público, inflação.

Sem usar palavras como essas, dificilmente conseguimos entender o que nos cerca, tomar decisões que afetam as nossas vidas e as dos outros, dialogar com quem quer que seja. É graças a essas noções que podemos diferenciar a mentalidade moderna como sendo “contratualista” e “individualista”, em vez de “comunitária” ou “hierárquica”. Isso mostra que não dá para separar o que entendemos por “nosso mundo” da linguagem que desenvolvemos para organizar nossa relação com ele – o que não quer dizer que a linguagem seja o ponto de partida do mundo ou sua fronteira, porque ela mesma vai tomando forma na medida dos problemas que aparecem na relação que constitui o mundo. A linguagem pode ser performativa, mas é ao mesmo tempo parte de individuações que a ultrapassam.

Daí a importância disso que estou chamando de “as categorias” – ou seja, ideias, ou melhor, conceitos – pelos quais é preciso passar para pensar de maneira estruturada nosso mundo e parametrar nossa ação nele. Elas são fundamentais e são razoavelmente rígidas, mas não totalmente. Basta ver como “democracia” deixou de ter o sentido de bagunça política (ainda empregado, por exemplo, pelos fundadores da democracia americana) e se tornou o nome de um sistema muito bem estruturado, termo carregado de valor altamente positivo, mesmo quando o exercício de um determinado regime com seu nome não lhe faça jus (i.e. sempre). A noção do “direito divino dos reis”, por exemplo, foi praticamente extinta, embora haja desvairados tentando ressuscitá-la, ou algo parecido com ela. A noção aristocrática de “honra” perdeu quase todo o peso que tinha no edifício das virtudes, enquanto as categorias econômicas de eficiência e produtividade se tornaram excelências, e por aí vai.

Agora, o que está sendo posto em questão são essas mesmas categorias que triunfaram sobre as mais ultrapassadas, como “honra”, “glória” e “direito divino dos reis”, mas também uma série de princípios feudais e eclesiásticos que hoje nem sequer fazem sentido para nós. Também vale lembrar que esses esquemas de pensamento suplantam outros, anteriores, mas às vezes recuperam ou retrabalham alguns de seus princípios. Quando a eficiência, o profissionalismo e outras noções semelhantes se tornam os alicerces da virtude, tomam o lugar de noções como justiça, temperança e bem-viver (eudaimonia, às vezes traduzida também simplesmente como “felicidade”), marcas de um mundo tão diferente que se tornou quase incompreensível.

Por que estou dizendo isso? Porque a força das categorias é parecerem óbvias, o que envolve tornar outros esquemas categoriais incompreensíveis e aparentemente absurdos. Pois bem, com o século XXI chega o momento de explorar alguns campos que nos soam absurdos, porque é o óbvio que está se tornando inconcebível.

Algo dessas mudanças já vem tomando corpo, sobretudo na maneira como o próprio conceito de civilização vem sendo posto em questão: em muitos meios, não carrega mais automaticamente um valor de incremento do espírito humano ou algo assim, passando a envolver boas doses de violência, um certo caráter ilusório, uma desmesura dos povos que subjugaram os demais e forçaram uma definição do curso adequado às vidas de todos. Cada vez mais, a noção de civilização carrega um subtexto de colonialismo, quando associada à história dos últimos quinhentos anos – e o próprio termo “colonialismo” passou a ter conotações negativas que, há um século, não tinha. Por sinal, ainda hoje é possível ouvir gente formada nas escolas de décadas atrás (muitas décadas) repetindo que as potências coloniais “levaram a civilização” a “povos atrasados”. São categorias que já se desvaneceram… e outras mais estão por fenecer.

3 – Mais do que uma economia

É sintomática, por exemplo, essa mórbida dicotomia entre “salvar a economia” e “salvar vidas”, que grassou por algumas semanas, na crítica às medidas de confinamento contra o avanço do vírus. Mas vamos deixar de lado a morbidade, por um momento, olhando só para o caráter sintomático. Pois é sintoma de quê, ao certo? De que colocamos a economia acima (ou à frente, se preferir) da vida? Ora, mas como isso foi possível, se é imediatamente evidente que só há qualquer tipo de economia se houver vida? Talvez seja mais, então, um sintoma de que perdemos a noção do que vem a ser uma economia.

Convenhamos que uma epidemia, manifestação escandalosa de uma doença, é algo inseparável da vida como um todo e, portanto, algo que precede e deve ser pressuposto por qualquer forma de organização da vida. Se uma pandemia é capaz de bloquear e comprometer o sistema dessa operação para além da duração de seus próprios surtos, então forçoso é constatar que há uma falha fundamental no mecanismo que sustenta nossas vidas em sua forma determinada corrente. Isto é evidente para além de qualquer comparação com épocas anteriores.

Falando em épocas anteriores, a experiência atual dá até vontade de voltar a pensar ao modo dos antigos fisiocratas (Turgot, Quesnay etc.), que consideravam o setor agrícola como sendo o único que gerava riqueza, de fato. Para eles, era assim porque só na agricultura se traduzia para o universo dos humanos algo do mundo natural que era a condição da vida. “Valor” designava a transferência do natural para o humano, a energia do sol e do solo concentrada no trigo e na cevada, por sua vez transubstanciados como alimento e como mercadoria. Os demais setores se limitavam a transformar esses elementos condicionantes da vida, fazendo-os circular, tornando-os mais complexos e diversos. No fundo, a tradicional teoria do valor-trabalho, sobrevivente hoje quase apenas entre marxistas, levava esse princípio adiante e o atualizava para a era industrial: valor nada mais é do que a transformação das energias do mundo, por meio dos corpos e das máquinas, em formas da vida social. Um metabolismo. Valor, no fim das contas, é uma noção poiética.

E no entanto chegamos ao ponto em que se tornou aceitável pensar que a economia é algo oposto à vida, ou pelo menos além da vida, mais ou menos como na imagem da “grande fuga” de gente como Deaton. Isto é que é enigmático. Uma adulteração lógica a examinar. Sem entrar em detalhes, parece ser o caso extremo da grande ilusão moderna apontada por Latour e Stengers, e mesmo antes, por Whitehead. Ela consiste em estabelecer uma cisão rígida (mas mediada) entre o mundo social dos humanos e o mundo natural, bruto; em termos científicos, consiste em isolar os fenômenos de toda valoração ou implicação que pudesse ser dita cósmica (nos termos de Bachelard, um obstáculo epistemológico), para revelar apenas suas relações diretas de causalidade.

Enquanto se trata apenas de método científico, vá lá; mas a atividade que dizemos econômica não é redutível à linearidade causal expressa no par produção/consumo, como quer a mentalidade moderna. Mesmo assim, ela não pensou duas vezes antes de aplicar a esse campo, equivocadamente, a mesma lógica que lhe serviu na epistemologia. Nesta última, de modo controlado, ou ao menos assim se acreditava. No mundo concreto, vivido, social, de modo brutal, cego, desmesurado.

E essa desmesura vai além, porque está na base de todo o maquinário de absorção, sujeição e aniquilamento que caracterizou a expansão colonial desde fins do século XV. Da expansão marítima ao fabuloso trabalho de engenheiros que cortavam ferrovias na selva e nas montanhas, marejando os olhos dos espíritos científicos ao mesmo tempo em que enchia os bolsos de quem financiou tamanhas aventuras, a experiência moderna sempre insistiu na cisão com o que lhe parecia ser meramente um mundo natural, para em seguida absorvê-lo como um buraco negro absorve a luz. E pensar que já Sófocles dizia não haver nada mais maravilhoso e temível quanto o ser humano…

*

Sem dúvida, uma parcela da explicação para nossa incapacidade de entender o que é uma economia está na confusão entre a variedade e sofisticação do que pode ser apropriadamente chamado de econômico e o enorme dispositivo técnico que foi montado para mobilizá-lo. Trocando em miúdos, aquilo que constitui uma economia (a elaboração dos modos de vida) foi soterrado por algo que podemos chamar de um gigantesco sistema de pagamentos e compromissos/promessas de pagamento – não no sentido usual da expressão, mas como toda a arquitetura da moeda e dos instrumentos financeiros que a orbitam.

Podemos observar, por exemplo, que na atual crise está intacta toda a infraestrutura necessária para tocar as necessidades da vida, isto é, o sistema econômico, produção, circulação e consumo. O que não está inteiramente de pé é o uso dessa infraestrutura, o que já é suficiente para ameaçar uma ruptura do sistema econômico em níveis sem precedentes, ainda que possivelmente por um período relativamente curto. Materialmente, não há nada que impeça a retomada do sistema tão logo a população se sinta segura. Ou seja, o uso dessa infraestrutura permanece disponível, do ponto de vista material. E mesmo enquanto durar o período de contágio, não há nada, materialmente, que impeça toda a população de viver com um nível de segurança suficiente, até mesmo um certo conforto, contanto que haja coordenação suficiente para tal.

A produção de alimentos e de energia não foi interrompida, as cadeias de distribuição tampouco, a não ser como medida de precaução. Na prática, o único elemento do sistema econômico que congelou, ao ponto da ruptura, com consequências palpáveis para além do momento da epidemia, é o sistema de pagamentos (sem falar, é claro, nos sistemas de saúde, cuja saturação não é primariamente um assunto econômico, embora tenha causas e consequências econômicas).

A rigor, as medidas necessárias para manter uma estabilidade social bem acima do mínimo, aliás bem próxima do satisfatório, estão muito aquém do que países estão preparados para fazer em situações críticas, até mesmo em guerras. Esses são momentos em que pontes, fábricas e cidades são destruídas. Pense em episódios tão diferentes quanto Fukushima ou a Batalha da Inglaterra. Nada disso é o caso agora. Tanto é que as medidas que os governos estão buscando dizem respeito, todas, ao problema dos pagamentos: redução de juros, adiantamento de créditos, títulos públicos com finalidade específica, pagamentos emergenciais a trabalhadores, pequenos empresários, autônomos etc., diferimento de impostos e aluguéis… Nada disso é mirabolante e é bem menos traumático do que os boletins de racionamento típicos dos períodos de guerra, que são, por sinal, um método de distribuição com eficácia limitada, particular a determinadas circunstâncias, como todos os demais. Mas chama a atenção esse detalhe significativo: ora, a metáfora que temos ouvido por aí, a começar pelo pronunciamento de Emmanuel Macron, é justamente a da guerra!

Ora, é nesse preciso ponto que faltam os mecanismos para lidar com interrupções, já que o “sistema de pagamentos” designa tudo que tem a ver com relações monetárias: aluguéis, salários, juros, impostos, ações. São relações que marcam distinções sociais, ritmos do tempo vivido, obrigações entre empresas, bancos e governos. Não é que a economia tenha um “lado real” e um “lado monetário”; assim como tudo que a humanidade faz, o real da economia (que não é um lado) só toma forma por meio de um imaginário codificado, que vincula a ação dos corpos e coletivos a uma modalidade técnica de sentido e propósito. Mas sendo assim, essa codificação é manuseável, como vemos sempre que há uma crise. Foi por perdermos de vista o caráter técnico e sociopolítico do dinheiro que pudemos nos enredar nessa bagunça, dizendo tolices como “dinheiro não dá em árvore”, e que temos tanta dificuldade em projetar medidas que respondam a um tempo de paralisia sem traumas desnecessários. Entre economistas, quem entendeu melhor esse ponto foram os “folclóricos MMTers”.

A parte fácil é entender que não deve mais ser considerado algo tão surpreendente que o ciclo habitual da atividade econômica seja interrompido de súbito, por períodos de meses a cada vez. Isto significa que, no mínimo, será preciso estabelecer mecanismos de “ligar/desligar” para os momentos de catástrofe. Desta vez, nem vamos precisar de um profeta para sonhar com vacas magras. Mas isso, por sua vez, implica uma ruptura com a crença tão disseminada de que um sistema econômico é uma espécie de máquina que funciona por conta própria, e que tem suas próprias leis, e que elas se manifestam em indicadores aritméticos, veladamente monetários. Este é o coração do problema das categorias, no campo econômico.

Isto significa que, como sistema complexo de natureza socio-técnica, nossa economia financeirizada é nada menos do que incompatível com o que o século XXI – esse que começa agora – promete ser. Neste exato momento, instantes iniciais do século, a questão de curto prazo posta à nossa frente pode bem ser essa que estamos discutindo nas últimas semanas: se a economia consegue sobreviver quando centenas de milhares de pessoas estão hospitalizadas, outras tantas morrendo, e muitas mais sob risco de ser infectadas e sobrecarregar os hospitais. A versão empobrecida desse dilema transparece nessa dúvida sobre se restringir a circulação das cidades derruba o sistema de pagamentos.

Mas a tendência é que essa pergunta seja potencializada em proporções terríveis: se a economia pode sobreviver quando centenas de milhares estão se afogando (imagine as cidades costeiras…), outros milhares estão sufocando (pense nas queimadas), centenas de milhões de agricultores perdem suas plantações, outros tantos ficam sem água, e isso sucessivamente, ano após ano. Toda essa lista trata de episódios que já vêm acontecendo, mas até agora a coordenação do sistema econômico-financeiro global – um sistema complexo e resiliente – foi capaz de conter possíveis danos à capacidade de pagamento em nível global. A pandemia do coronavírus foi a primeira vez que essa capacidade foi amplamente posta em questão.

*

Para muitos, a resposta a essa incompatibilidade consistiria em reinstalar mecanismos de solidariedade social mediados pelo Estado, à moda do período social-democrata do pós-guerra. Mas é preciso ir muito além, já que as categorias e instituições social-democratas têm os dois pés muito bem fincados na modernidade da grande indústria, estão baseadas na relação salarial, no emprego fabril e formalizado, na pura aritmética do nível de produto (ou, mais simplesmente, o PIB), das taxas de variação, uma capacidade produtiva inabalável. Em breve, já não será mais o caso de trabalhar com essas categorias.

Para se restringir aos momentos de ruptura, como o atual: seria preciso que houvesse mecanismos de interrupção de todas essas relações estabelecidas, para que os danos de uma catástrofe ficassem contidos em suas próprias fronteiras. Seria preciso que dívidas, juros, aluguéis, impostos, pagamentos de toda ordem, se congelassem e retomassem com o retorno à, digamos, normalidade. Mecanismos emergenciais como as rendas mínimas emergenciais teriam de ser disparados automaticamente, para não chegar à possibilidade ainda um tanto controversa de que se tornassem rendas universais, perenes. Seja como for, a consideração de tudo que se entende por econômico teria de passar inteiramente ao largo de categorias como o “nível de produto” e, com ele, do crescimento.

Já isto, hoje, parece inconcebível e inteiramente fora do nosso quadro de pensamento. Uma economia cuja moldura institucional levasse em conta a certeza de eventuais interrupções?! No entanto, estou falando apenas do que seria preciso para lidar de modo um pouco menos traumático com a série de interrupções do processo econômico esperadas para as próximas décadas. Ou seja, esse é o mínimo necessário para tentar responder às ameaças dentro do esquema conceitual com que estivemos acostumados, mantendo pelo menos os princípios da vida econômica que levamos desde o século XVIII.

Mas se a idéia for passar a uma vida conforme aos problemas concretos do século XXI, mais ou menos como a industrialização e o desenvolvimento das finanças lidaram com as condições e possibilidades do século XVIII, então vai ser preciso uma capacidade inventiva muito maior. Neste caso, para ficar no âmbito do pensamento econômico, os institucionalistas são uma fonte mais interessante do que as demais escolas, já que reconhecem as condições sociais e políticas para o funcionamento de qualquer sistema econômico, particularmente a tão incensada economia de mercado. Nada garante que o arcabouço institucionalista seja suficiente, mas será preciso pensar as condições para que mercados funcionassem de modo intermitente, subordinados às condições materiais e concretas de um mundo natural que, se dependesse do próprio mercado e de seus teóricos, seria abordado apenas pelo ângulo dos seguros (o relatório Brundtland já previa o encarecimento das apólices, por sinal) e das externalidades – este, aliás, é o primeiro conceito a ser sacrificado, já que, num sistema complexo em que a atividade econômica testou os limites do planeta, o que aparece como externo é simplesmente o que há de mais interno.

Seguindo por essa linha de raciocínio, mais ainda do que os institucionalistas, seria o caso de recuperar o “substantivismo” de Polanyi, aquele que aponta a inversão característica da modernidade: considerar o social como incorporado à economia, em vez do contrário. Para garantir condições de subsistência e conforto, o mecanismo de mercado é apenas um dos caminhos (Polanyi elencou outros dois, que denominou “formas de integração”: reciprocidade e redistribuição). Há condições necessárias para que funcionem: com muita incerteza – financeira, política ou, agora, ecológica –, o sistema de pagamentos pode entrar em colapso. Em funcionando, há condições necessárias para que os mercados sejam úteis: quando alguém como o governo americano pode desviar para si todos os bens mais essenciais só porque tem condições de pagar, há um problema grave. Assim como há um problema grave quando todos os incentivos do mercado vão na direção de uma promoção insuficiente da saúde. Essas são algumas das questões que vamos ter que enfrentar.

4 – Riscos existenciais

Quando se fala nas principais fontes de catástrofes e, de modo geral, perigos no século que ora se inicia, a lista costuma incluir os seguintes pontos: mudança climática, biotecnologia, inteligência artificial, poderio nuclear. Grosso modo, são esses os nossos principais “riscos existenciais”, para usar a expressão de Nick Bostrom. É importante ter em mente que cada um deles alimenta os demais, já que são componentes de um sistema cada vez mais integrado e complexo, que é o sistema do planeta (“Earth system”), hoje tão geofísico quanto econômico, tão ecológico quanto tecnocientífico.

É real, por vários motivos, o problema da complexidade dos sistemas geo-bio-físico e tecno-financeiro-econômico, cada vez mais indistinguíveis. O primeiro está na própria recursividade dos sistemas complexos: eles tendem a aumentar o próprio nível de complexidade. No caso da vida, isto acaba significando evolução, mas, no caso de sistemas técnicos, envolve igualmente uma perda de controle – e acho que não há muita controvérsia em dizer que é preferível poder controlar os sistemas técnicos. Mas também é uma característica de sistemas complexos que sejam mais “resilientes” (anglicismo que parece já ter sido plenamente adotado em português), porém ao mesmo tempo mais vulneráveis. É assim que sistemas ecológicos se adaptam a mudanças consideráveis, climáticas ou até mesmo internas a eles mesmos, transformando-se para isso, sem maiores traumas aparentes – isto é resiliência –, mas eventualmente chegam a um ponto de virada em que não podem mais subsistir, e entram em colapso – isso é vulnerabilidade. As extinções em massa ocorreram dessa maneira: foram rápidas e súbitas.

A relação entre resiliência e vulnerabilidade pode se explicar mais ou menos assim, tomando o caso de zoonoses e outros patógenos. No noticiário sobre o atual coronavírus, lemos que laboratórios mundo afora estão correndo atrás de vacinas e que, eventualmente, dentro de um ano e meio, talvez, teremos resultados. Lemos também que bactérias estão cada vez mais resistentes a antibióticos, mas que também estão sendo desenvolvidos novas classes de medicamentos contra essas superbactérias. Com a exceção de pessoas que seguramente não estão lendo este texto, sabemos todos que as vacinas foram fundamentais para controlar doenças como pólio, sarampo e varíola, e continuam sendo fundamentais para mantê-las sob controle. Sabemos que o saneamento nos protege do cólera e da febre tifóide. Sabemos que um bom urbanismo é fundamental contra o avanço da tuberculose e outras doenças respiratórias. Metrópoles superpovoadas são espaços ideais para a transmissão em massa de vírus como esse da atual pandemia, mas também são onde melhor se previnem as doenças e mais se tem acesso a tratamentos de saúde. Sabemos que o aumento da ingestão de calorias foi um fator na melhora dos indicadores de saúde e no aumento da expectativa de vida dos últimos séculos (deixando de lado o problema da má nutrição com o avanço recente dos alimentos ultraprocessados, sobretudo nos países ricos).

Pois bem, todos esses elementos estão profundamente conectados. Uma zoonose como o ebola ou o coronavírus não apaga a humanidade da face da Terra porque os sistemas de prevenção e tratamento dão conta de evitar os maiores estragos. Isto significa que podemos continuar avançando sobre florestas, escravizando animais e ampliando manchas urbanas sem constituir nenhum risco sistêmico. Microorganismos outrora assassinos que estão presentes no nosso organismo não nos afetam mais porque temos como combatê-los ou estão enfraquecidos. Não se pode mais separar nossa saúde, individual ou coletiva, dos dispositivos técnicos no interior dos quais vivemos e que constituem boa parte do nosso mundo.

*

A coisa vai mais longe, porém. Os laboratórios que investigam curas e vacinas são ou bem públicos, ou bem privados, e seja como for, dependem de financiamento, seja por meio de impostos, investimentos ou empréstimos (contra a perspectiva de lucros). Os sistemas de distribuição dependem igualmente de financiamento, mas também de transportes, que por sua vez dependem de energia extraída, ainda hoje, majoritariamente de combustíveis fósseis. O urbanismo e o saneamento que garantem boa parte da nossa saúde dependem, além do financiamento, da disponibilidade de mão-de-obra, o que implica sistemas de educação, distribuição de alimentos e – veja a recursividade – saúde, urbanismo etc. O acompanhamento e combate de qualquer doença, praga ou catástrofe depende de redes extensas de informação e comunicação, que dependem de computadores, satélites, pesquisadores, universidades, eletricidade…

Todo esse enorme conjunto de sistemas está integrados também aos ciclos ecológicos, o que significa todo tipo de coisa: chuva, vento, rotação e translação da Terra, efeito-estufa, correntes oceânicas. Mas, como vimos com os dados da poluição na China, depois na Europa, hoje nem mesmo essas variáveis podem ser desconectadas da ação humana – ação dita econômica, essa mesma que está soterrada no sistema de pagamentos que faz as vezes de economia.

Assim sendo, já se vê que o sistema é resiliente porque é capaz de enfrentar um sem-número de crises sem romper, mesmo que precise se transformar. “Sem-número” porque, de fato, é bastante indeterminado quanta crise esse sistema todo pode enfrentar e ainda se manter quase incólume. Mas não é uma infinidade. O problema de sistemas complexos como esse que envolve o planeta e a atividade humana é que, de uma hora para outra, o que eram dispositivos de compensação (e, portanto, estabilização), se convertem sem aviso em mecanismos de reforço, provocando uma reação em cadeia que é destrutiva e muito veloz. Este é o sentido da vulnerabilidade contraposta à resiliência.

Para ficar no exemplo da saúde, uma vez que entendemos o quanto a complexidade técnica, social e econômica nos protege contra eventuais doenças, também podemos entender o quanto estamos expostos uma vez que esses sistemas entrem em colapso. Se faltar financiamento para os laboratórios, os remédios e vacinas que nos mantêm saudáveis podem desaparecer de imediato. Nesse momento, também é provável que falte financiamento para os sistemas de tratamento. É provável que também falte para a produção de energia que alimenta os sistemas de transporte e distribuição que traziam os remédios e vacinas, mas também traziam o alimento. As redes de comunicação emudecem. Também fica comprometido o saneamento e, dentro em pouco, o mesmo acontece com o urbanismo, como foi quando a manutenção dos aquedutos se tornou inviável nas cidades do Império Romano decadente. Assim, em pouco tempo, nós, que estávamos tão bem protegidos contra novas doenças – e mesmo velhas doenças –, de súbito estamos completamente expostos.

Como cada um desses sistemas – inteligência artificial, biotecnologias, clima, nuclear, mas também finança, indústria etc. – é complexo por si só e todos estão conectados de múltiplas maneiras, constituindo um super-sistema-mundo, todas as tendências da complexidade se reforçam, da acelerada complexificação à resiliência e à vulnerabilidade. Muitas pequenas rupturas podem ocorrer sem derrubar o “sistema de sistemas”, muitas vezes inclusive reforçando-o, embora acumule resíduos que podem depois se revelar fatais.

Talvez o acúmulo dessas tensões, ao aumentar o estresse do sistema, leve ao seu colapso; talvez leve a uma supersaturação que induza à completa reconfiguração do sistema como um todo, levando a uma nova lógica, novos atratores, novas categorias, novas instituições etc. Esta é a maior esperança. J.-P. Dupuy, que cunhou a expressão “catastrofismo esclarecido” para designar a postura racional e esperançosa perante uma catástrofe já encomendada e que se torna cada vez mais palpável, teme que os sistemas em tensão acabem redundando em guerras que ponham tudo a perder. Pois bem, a corrida contra o tempo pode ser posta nesses termos: invenção ou guerra. Inventar novas categorias e parâmetros para novas configurações do sistema-mundo, antes que estejamos afogados num dilúvio de ferro, fogo e sangue.

5 – Para novas categorias

Com toda essa conversa de categorias que se tornam obsoletas, resta se perguntar sobre a emergência de novas categorias – aliás, “emergência” é um péssimo termo, já que se trata de um lento trabalho de invenção e amplificação, sem que nada pule “para fora” de nada. Ou seja, se o século nascente demanda uma passagem a novos conceitos de base, de onde eles virão?

Aqui é que reside toda a beleza das possibilidades abertas, da esperança e da coragem de viver – e viver consiste em construir as maneiras como essa vida vai se constituindo, se desenvolvendo, percolando pelas nossas relações conforme se desenvolvem. Aqui aparece novamente aquela proposta do começo do texto: se queremos fazer a aposta de que vamos chegar bem ao fim do século XXI, mesmo sabendo que será um período difícil, traumático, temos que ver quais são as condições para isso. Ou seja, explorar as possibilidades, examinar com cuidado o que parecia funcionar e não funciona, apontar as limitações das categorias usuais, investigar os potenciais de categorias concorrentes, vendo onde falham e onde prosperam… e assim por diante.

Seja o que for que vai constituir o esquema de interpretação do mundo no século XXI, o que parece seguro dizer é que seus principais elementos já estão flutuando pelas margens do mundo. Algum gaiato poderia dizer que essas figuras políticas monstruosas que vêm ganhando espaço também vêm das margens dos sistemas políticos estabelecidos. E esse gaiato teria razão, até certo ponto. Quando os modelos da era anterior começam a exibir trincas e pouco a pouco se põem a ruir, quem sai na frente são essas suas formas adulteradas, teratológicas, das margens do sistema estabelecido mas ainda orbitando nele e se alimentando dele. Mas elas só têm a oferecer o esforço violento de postergar qualquer invenção propriamente de fundo, tarefa que tende a se tornar cada vez mais trabalhosa, na medida em que requer volumes cavalares de recursos e energia. Além disso, é mesmo de se esperar que haja linhas de conflito e que justamente esses nomes monstruosos sejam a linha de frente do atraso.

Mas o que imposta é investigar de onde virão as invenções, que serão capazes de esvaziar essas forças do atraso. E aqui há uma miríade de possibilidades, é claro, já que são categorias da margem e é da natureza da margem multiplicar-se, variar infinitamente, provocar múltiplas diferenciações, algumas das quais se desvanecem logo em seguida, enquanto outras prosperam. Se as energias que circulam nas margens podem ser capturadas por essas figuras monstruosas e destrutivas, seu efeito é esfriá-las. Mas também podem ressoar umas com as outras e criar formas inesperadas, cuja fecundidade é impossível prever e depende das tendências mais amplas com as quais poderá se conectar.

Isto posto, é difícil escapar à tentação de fazer um arrazoado de iniciativas que introduzem novas lógicas (ou lógicas marginais) e, com elas, o potencial de uma reconstrução de categorias. Sem procurar muito longe, basta falar em princípios como a permacultura, os laboratórios maker, os circuitos de troca, que funcionam nos interstícios das cadeias globais de valor, em canais que resistem a traumas que seriam – e são – capazes de romper os vínculos de escala maior. Ainda no plano da produção/circulação/consumo, pululam mundo afora esquemas de comércio justo (ou “equitável”), moedas complementares, bancos comunitários, que permitem um manejo muito mais adaptável e fluido da distribuição dos meios necessários à vida, bem como sistemas de pagamento mais controláveis e sujeitos ao imperativo do bem-estar ou bem-viver.

Recuando um pouco, para poder avançar melhor: em momentos como o desta pandemia, vemos como essas categorias são maleáveis, ainda que busquem se manter rígidas. De um lado, governos e outras instituições abrindo exceções em suas maiores crenças, mas a muito contragosto: auxílios aos desempregados e pequenos empresários, rendas básicas emergenciais etc. De outro, o reforço ou ressurgimento, sobretudo nas periferias, de redes de solidariedade que se acreditava terem sido soterradas ou tornadas obsoletas pela modernidade individualista, contratual. Redes como essas podem até mesmo ser capazes, no fim das contas, de evitar o cenário apocalíptico esboçado por muitos, com roubos a supermercados e famílias pobres levadas a passar fome. Não estou dizendo, valha-me Deus, que basta contar com redes de solidariedade e podemos ficar tranqüilos a respeito das categorias que organizam nosso mundo. O que estou dizendo é que podemos aprender com elas, enxergar nelas elementos de novas dinâmicas sociais, políticas e econômicas.

*

Como sabemos, o coronavírus, assim como, antes dele, o ebola, o HIV e vários tipos de influenza, é uma zoonose, ou seja, patógeno que transita dos animais para os humanos. Não deixa de oferecer uma ocasião propícia para especular sobre outras instâncias de um trânsito entre mundos que nos forçamos a pensar como separados; a zoonose, como a queimada, a praga, a inundação e, muitas vezes, o câncer, apareceria então como um mediador, um viajante, um diplomata cujas mensagens (Botschaft, diriam os alemães) são a morte, a doença ou, se for o caso, misérias de outros tipos. Naturalmente, só pode nos parecer assim porque imaginamos essa divisão absolutamente ficcional.

Não há propriamente um trânsito, se entendermos que a relação entre mundo humano e mundo animal é uma questão de mera topologia, nada mais do que os movimentos forçados que a lógica divisora da modernidade impôs às dinâmicas que a ultrapassam. Mas o mais relevante é notar que o agente dessa comunicação das doenças entre humanos, morcegos, porcos, frangos e outros bichos, esse minúsculo xamã da morbidade, é um ente microscópico, tão simples, tão estranho – um vírus! Um pedaço de código genético encapado que nem sequer conseguimos determinar como sendo vivo – ou melhor, como sendo um ser vivo de pleno direito (direito!). Um ente que só pode existir com alguma clareza nas conexões, de um corpo a outro, de uma espécie a outra, sendo parte da vida só quando salta entre os infectados.

Existe um curioso paralelismo entre o simples vírus e toda a complexidade do aparato tecnológico humano. A diferença é que o primeiro nos lembra da nossa inserção inescapável (e bem tentamos escapar!) nas dinâmicas naturais – ou cósmicas, para empregar um termo mais carregado de implicações. Enquanto isso, o aparato técnico, mesmo ao operar justamente na mediação física e psíquica com o meio associado, tem nos servido mais para esquecer de seus dinamismos necessários, patentes, inescapáveis, fazendo parecer que nos isola deles.

Na verdade, boa parte da reconstrução das categorias sociais, políticas e econômicas consistirá em refundar a lógica dos dispositivos técnicos, para que sejam os operadores da tarefa de enxergar nossa inserção nos dinamismos naturais, ampliar os modos dessa inserção, reforçar a conexão entre nosso metabolismo e os demais. Também isto existe nas margens, aparece em filigrana nas ciências do clima e do sistema-Terra mais amplamente. De um modo mais próximo ao quotidiano, aparece no esquema de Kate Raworth com os círculos concêntricos da economia possível, que ela compara a uma rosquinha (Donut Economics). Por sinal, o subtítulo do livro dela é: “pensar como um economista do século XXI”, o que só reforça a ideia de que este era um século ainda por começar.

Aparece também na paulatina reemergência de tantos saberes subordinados (expressão de Foucault), que foram suprimidos ou absorvidos pelo saber magno do “espírito científico” moderno, objetivante, isolante, triunfal ao silenciar sobre valores e vínculos cósmicos, enquanto agia tecnicamente sobre esses mesmos valores e vínculos. Pelo menos, vejo assim a retomada de interesse em pachamama, sankofa, ubuntu, motainai, candomblé.

Desnecessário dizer que este é um trabalho árduo e de longo prazo, que só pode ser levado a cabo por meio de muita reflexão, mobilização e articulação. A seguir no exercício de pensamento em que reconhecemos na pandemia do coronavírus um verdadeiro evento, um ponto de virada, ato fundador, chame como quiser, o que se apresenta diante de nós é um chamado à invenção. O mundo passou a última década, pelo menos, postergando transformações cuja necessidade estava patente. Sem reação digna de nota, assistimos à perpetuação de uma mecânica econômico-financeira fracassada, suicida, reconhecidamente alienada – isto é, desconectada de seus próprios princípios. Pasmos, mortificados, acompanhamos a ascensão irresistível de figuras políticas doentias, alimentadas por medos, vergonhas e dores indefiníveis. Uma autêntica necropolítica, engordando com a perspectiva do mortífero.

Talvez faltasse engrenar o século XXI. Talvez estivéssemos meramente na fase de transição para ele. Mas com o coronavírus, mensageiro da vida indecidível, irrompe um século em que a vida, ela mesma, é uma questão de decidir. Se for assim, encerrou-se a década do impasse, com um chamado a encerrar a agonia da modernidade. Eventualmente vamos sair de casa e lá vai estar o século XXI, esperando por nós.

Saiba o que os grandes filósofos estão dizendo sobre coronavírus (Ilustríssima/Folha de S.Paulo)

Artigo original

Úrsula Passos, 12 de abril de 2020

[RESUMO]Ameaça representada pelo coronavírus mobiliza diversas áreas do conhecimento, da medicina à filosofia. O que dizem os filósofos contemporâneos? Há os que apostam numa mudança de paradigma e há também os céticos, que apontam certo misticismo em prognósticos sobre grandes transformações políticas e econômicas. Veja a seguir um roteiro de navegação pelos debates filosóficos do momento, travados em sites e publicações internacionais.

Desde que a epidemia do novo coronavírus surgiu num horizonte então ainda distante, chamado Wuhan (China), configurava-se uma ameaça potencial a vidas e modos de viver em todo o planeta.

O assunto mobiliza cientistas envolvidos nas pesquisas relativas à Covid-19 e estudiosos e pensadores de diversas áreas, como as chamadas ciências humanas. Refletir sobre nossas sociedades e as maneiras pelas quais enfrentamos e poderemos sair dessa inesperada crise também tem ocupado os filósofos de nosso tempo.

A urgência do pensamento encontra na internet seu meio de veiculação ideal, que vê surgir debates como o que opôs, de um lado, o italiano Giorgio Agamben, e, de outro, o francês Jean-Luc Nancy e o também italiano Roberto Esposito, grandes nomes da filosofia política contemporânea, sobre as políticas de contenção do vírus.

Para ajudar o leitor a navegar por essa série de esforços do pensamento, a Ilustríssima apresenta este guia do debate, com um resumo do que cada um desses autores diz.

O debate sobre a exceção

Giorgio Agamben

Em 26 de fevereiro, o filósofo italiano publicou um artigo chamado “A Invenção de uma Epidemia” no site de sua editora. O texto provocou uma série de respostas no blog coletivo italiano Antinomie em parceria com a revista European Journal of Psychoanalysis.

Um dos maiores pensadores da atualidade, Agamben é autor de “Homo Sacer” (editora UFMG), no qual explicita o conceito mais caro de sua filosofia, o de estado de exceção ­—que se refere à situação em que, para conter um conflito ou uma ameaça, o governo usa de sua soberania para cassar ou suspender direitos e estabelecer um estado de guerra.

No texto, ele qualifica as medidas de contenção tomadas pelo governo italiano como “frenéticas, irracionais e totalmente imotivadas”. A mídia e as autoridades, segundo ele, estariam espalhando um clima de pânico que legitimaria o estado de exceção.

Para o filósofo, as medidas fazem parte de uma tendência crescente de usar o estado de exceção como paradigma normal de exercício do poder. A epidemia não seria mais que um pretexto para instaurar o pânico e tornar as limitações de liberdade aceitáveis em nome do desejo de segurança.

Jean-Luc Nancy

No dia seguinte à publicação, o filósofo francês (autor de, entre outros, “Corpus”, no qual aborda sua experiência de transplante de coração), respondeu ao colega afirmando a gravidade da Covid-19.

O pensador, para quem a noção de comunidade é central, considerou que Agamben falhava ao não perceber que a exceção já se tornou a regra no mundo atual, em que a intervenção da técnica sobre todas as coisas atinge uma dimensão nunca antes vista.

Para ele, desconsiderar que o governo é apenas um executor do que é preciso ser feito parece mais uma manobra diversionista do que uma reflexão política.

Roberto Esposito

Dois dias depois foi a vez do filósofo italiano, que também trabalha com o conceito de estado de exceção em seus estudos sobre biopolítica, responder a seu conterrâneo. O autor de “Categorias do Impolítico” (Autêntica) afirma ser um exagero falar em riscos à democracia neste momento.

Esposito, porém, admite que o estabelecimento da emergência empurra a política para procedimentos excepcionais que desfazem o equilíbrio do poder. Segundo ele, uma crescente politização da medicina distorce as tarefas de controle social porque seus objetivos não incluem mais indivíduos ou classes, mas segmentos de população diferenciados por saúde, idade, sexo e até etnia.

“Parece-me”, escreve ele, “que o que acontece hoje na Itália, com a caótica e um tanto grotesca sobreposição de prerrogativas estatais e regionais, tem mais o caráter de uma decomposição dos poderes públicos que o de uma dramática contenção totalitária”.

Giorgio Agamben

No dia 17 de março, o italiano voltou ao debate, mas sem mudar a postura. Segundo ele, o pânico mostrou que a sociedade não acredita em nada além de “vidas nuas” e que os italianos estão dispostos a sacrificar tudo para evitar ficarem doentes.

Agamben se pergunta no que as relações humanas se transformariam se nos acostumássemos a viver assim, como se outros seres humanos fossem apenas possíveis contaminadores. “O que é uma sociedade cujo único valor é a sobrevivência?”, pergunta.

Os homens, acostumados a viver em permanente crise, não percebem que a vida foi reduzida à condição biológica, perdendo suas dimensões social, política e emocional. Uma sociedade em permanente estado de emergência, diz, não pode ser livre.

Sua preocupação é com o pós-pandemia, se, passada a emergência médica, os experimentos que os governos conseguiram implementar se mantiverem e continuarmos com escolas e universidades fechadas, sem encontros para debater política e cultura, trocando mensagens virtuais e interagindo somente com máquinas.

O descrente

Alain Badiou

O filósofo francês, autor de “Em Busca do Real Perdido” (Autêntica), em que questiona a compreensão do real apenas pela ciência e economia, escreveu no final de março um artigo no qual se mostra descrente de uma grande mudança política após a pandemia.

Ele recusa a ideia de que estejamos vivendo algo inédito com o novo coronavírus, apontando ameaças anteriores, como o HIV e a Sars. “É verdade que esses deveres [como o de ficar em casa] são cada vez mais urgentes, mas, ao menos num exame inicial, não requerem nenhum grande esforço analítico ou a constituição de um novo modo de pensar”, escreve. Quanto às medidas tomadas pelos governos, são simplesmente as necessárias nesta situação.

Para Badiou, o Sars-CoV-2 evidencia uma grande contradição contemporânea: a economia está sob a égide do mercado global, enquanto os poderes políticos continuam sendo essencialmente nacionais.

Cético quanto ao que alguns aventam como possibilidades políticas na atual crise, ele percebe uma dissipação da atividade da razão que está levando a “misticismo, fabulação, profecias e maldições” e que, no pós-pandemia, será preciso avaliar tais perspectivas que acreditaram que algo politicamente inovador poderia surgir.

Valor das vidas

Judith Butler

A filósofa americana, responsável pelo conceito de performatividade de gênero e pela teoria queer, autora de “Problemas de Gênero” (Civilização Brasileira), parte da tentativa de Donald Trump de garantir apenas aos EUA uma possível vacina contra a Covid-19 para tratar do acesso desigual à saúde no país.

Ela volta às ideias expostas no livro “Vida Precária: Os Poderes do Luto e da Violência” (Autêntica), em que o luto aparece como elemento fundamental de um sentimento de comunidade que se opõe ao individualismo.

Embora todas as vidas sejam precárias e o vírus possa contaminar qualquer um, a desigualdade social e econômica permite que o vírus discrimine.

“Por que nós, como povo, ainda nos opomos à ideia de tratar todas as vidas como se tivessem o mesmo valor?”, pergunta.

Tchau Europa, olá China

Theodore Dalrymple

Dalrymple é o pseudônimo do psiquiatra e crítico cultural conservador britânico Anthony Daniels, autor, entre outros, de “Nossa Cultura… ou o Que Restou Dela” (É Realizações), conjunto de ensaios sobre a degradação dos valores.

Em dois textos sobre a Covid-19, ele trata do novo protagonismo da China e do fim da Europa como liderança e modelo para o mundo, tendência exacerbada pela pandemia.

O primeiro texto, do início de março, mostra como epidemias ou guerras fazem com que tanto a população quanto a classe política vivam uma dialética entre complacência e pânico, entre a análise de estatísticas e o medo do desabastecimento que leva à corrida a supermercados.

Ali, Dalrymple comenta o fato de que, com a falta de insumos, os governos acordaram para o perigo de deixar que a China seja a fábrica do mundo, confiando ao país diversas partes da cadeia produtiva.

O segundo texto trata de como os europeus, para se consolarem do fato de não terem respondido ao vírus com a mesma eficiência de países asiáticos, se apegam à ideia de que são livres e de que não vivem sob regimes autoritários.

Sociedade do medo

Frank Furedi

Nascido na Hungria e professor da Universidade de Kent, na Inglaterra, o sociólogo e autor de “Politics of Fear” (política do medo) tem escrito diversos artigos sobre a Covid-19 na revista online Spiked.

No final de janeiro, Furedi alertava para que a reação à doença não fosse extrema, dizendo que neste século já vimos o surgimento de outros vírus e que já começavam as teorias da conspiração e o apontar de dedos em busca de culpados.

Em texto de meados de março, ele trata de como a pressão para que políticos ajam de forma a aquietar a opinião pública pode impedir que as melhores decisões sejam tomadas. Mas não são os governos, e sim as comunidades, diz ele, que asseguram que a dor e o sofrimento sejam minimizados.

Em “Um Desastre sem Precedentes”, de 20 de março, Furedi aborda os impactos do coronavírus, não pelo aspecto da saúde, mas pelo ângulo da reação de governos, entidades internacionais e comunidades. “É como a sociedade responde a um desastre que determina que legado, a longo prazo, o desastre terá”, escreve.

O modo como se responde a uma pandemia é mediado pela maneira como se percebe a ameaça, pela sensação de segurança existencial e pela capacidade de dar significado ao imprevisto.

Ele então enumera questões do nosso cenário cultural que influenciam a nossa resposta: no século 21 os indivíduos deixaram de se enxergar como resilientes e passaram a se definir por suas vulnerabilidades; existe uma grande “psicologização” dos problemas da vida cotidiana e da existência; e uma percepção contemporânea de que a existência humana está ameaçada —“o termo extinção humana é usado casualmente nas conversas cotidianas”.

Em oposição a isso, Furedi fala da necessidade de desenvolver a coragem como valor compartilhado —e valores compartilhados são essenciais à solidariedade.

No artigo mais recente, de 2 de abril, ele volta a tratar da sanha por achar culpados pelo novo coronavírus. A maior parte das narrativas de culpa é, segundo ele, influenciada por inimigos de seus autores. Setores da esquerda culparam a austeridade e a falta de investimento no setor público, enquanto a direita responsabilizou migrantes e estrangeiros pela situação.

Para compreender tal busca por culpados, o sociólogo enumera três fases da maneira como a humanidade lida com catástrofes ao longo da história. Antes apontavam para Deus e outras forças sobrenaturais; após o Iluminismo, passamos a culpar a natureza; agora, buscamos culpados entre os seres humanos. Ainda hoje os desastres devem ter significados por trás deles e raramente são percebidos como acidentes.

Resposta imunológica

Han Byung-chul

O filósofo sul-coreano radicado em Berlim, autor de “Sociedade do Cansaço” (Vozes), em texto de meados de março passa em revista os modos distintos com que Ásia e Europa enfrentaram a Covid-19 —testagem em massa e controle digital de um lado, isolamento social de outro.

Ele aponta questões culturais que levam a tais diferenças, como a tradição confucionista que engendra uma mentalidade autoritária, a maior obediência e menor relutância, mais confiança no Estado e sobreposição da coletividade sobre o indivíduo nos países asiáticos.

Han também aborda uma mudança na ideia de soberania, que, segundo ele, está ultrapassada como é vista na Europa. É soberano, afirma, quem dispõe de dados. E a vigilância digital impera na Ásia.

“O capitalismo continuará com ainda mais pujança”, diz ele. E agora a China poderá vender seu Estado policial digital com orgulho para o Ocidente. O vírus não vencerá o capitalismo, pois, ao nos isolar e não gerar nenhum sentimento coletivo, não mobiliza revoluções.

A solução socialista

David Harvey

O geógrafo marxista britânico, autor de “Os Limites do Capital” (Boitempo), no qual reinterpreta Marx à luz das dinâmicas espaciais da urbanização, publicou “Políticas Anticapitalistas em Tempos de Covid-19” em seu site, em meados de março.

Não há, segundo ele, desastres naturais, porque todos dependem, mais ou menos, da ação humana. Os impactos econômicos e demográficos do vírus dependem de fissuras e vulnerabilidades que já existiam no modelo econômico.

Em diversos países as autoridades regionais não tiveram acesso a recursos para a saúde pública por conta de políticas de austeridade que subsidiaram corporações e os ricos, escreve.

Ele contesta, ainda, a ideia de que a doença atinja igualmente a todos, pois a força de trabalho que cuida dos doentes é racializada e feminina. A diferença também está naqueles que podem ou não trabalhar de casa, e nos que podem ou não se isolar.

Os trabalhadores na maior parte do mundo, segundo ele, foram ensinados a se comportar como bons sujeitos neoliberais, mas as únicas políticas que surtirão efeitos agora serão socialistas.

Nada deve ser como antes

Bruno Latour

O francês, sociólogo e filósofo da ciência, é autor de, entre outros, “Jamais Fomos Modernos” (editora 34), sobre como a noção de moderno é usada no Ocidente em oposição a outras culturas. Em texto do final de março, defende que não voltemos ao estado anterior, de superprodução e consumismo, após a pandemia.

Segundo ele, os globalistas vão se aproveitar da crise para voltarem mais fortes, ignorando os sinais climáticos. “É agora que devemos lutar para que, uma vez terminada a crise provocada pela pandemia, a retomada da economia não traga de volta o mesmo velho regime climático que temos tentado combater”, escreve.

Não se trata mais de retomar ou de transformar um sistema de produção, mas de abandonar a produção como o único princípio de relação com o mundo. Ao final, ele propõe um exercício ao leitor: fazer um inventário das atividades que não gostaria que fossem retomadas e daquelas que, pelo contrário, gostaria de ampliar.

A nova fronteira

Paul B. Preciado

No começo de março, o filósofo trans espanhol, autor do “Manifesto Contrassexual” (N-1 edições), um marco dos estudos de gênero, adoeceu pela Covid-19. Logo depois, escreveu um texto a respeito dos dias que passou alheio aos acontecimentos e sobre como pensou que a nova realidade poderia agora ser escrita em pedra. “Valeria a pena viver nos moldes do confinamento?”, ele se perguntava.

No dia 28, voltou ao assunto em outro artigo, no qual enfatiza a filosofia de Michel Foucault da biopolítica, segundo a qual o corpo é o objeto central de toda política.

As diferentes epidemias, segundo ele, materializam na esfera do corpo de cada um as obsessões que dominam a gestão política da vida e da morte das populações. Sendo assim, o vírus atua replicando e estendendo a todos as formas dominantes de gestão da vida e da morte que já existiam, mas em dimensões nacionais.

Estamos, em nossa época, passando de uma sociedade orgânica para uma digital, de uma economia industrial para uma imaterial. As pessoas não são mais reguladas pela passagem por instituições disciplinares, como escola, fábrica, casa, mas por tecnologias biomoleculares, digitais e de transmissão de informação.

“O que está sendo testado em escala planetária por meio do gerenciamento do vírus é uma nova maneira de entender a soberania em um contexto em que a identidade sexual e racial está sendo desarticulada”, escreve.

Golpe no capitalismo

Slavoj Zizek

No fim de fevereiro, o esloveno, o mais pop dos filósofos, publicou um artigo no qual define o novo coronavírus como um golpe à la “Kill Bill” no capitalismo.

O autor de livros como “Menos que Nada” (Boitempo), no qual articula Hegel e Lacan, faz referência ao golpe mortal aplicado pela protagonista em seu inimigo ao final do longa de Quentin Tarantino.

Para Zizek, o novo coronavírus sinaliza que uma mudança radical é necessária. A crise econômica que se espera como consequência da pandemia mostra a urgência de uma reorganização da economia global em que não se esteja à mercê dos mecanismos do mercado.

Ele prepara novo livro sobre a pandemia, que já está em pré-venda. Zizek fala de um socialismo de emergência, no qual trilhões serão gastos, violando as leis de mercado, mas que ainda assim corre o risco de ser um “socialismo para os ricos”, ajudando apenas a elite, como em 2008.

E mais alguns pensadores

Noam Chomsky

O linguista americano conversa com o filósofo croata Srećko Horvat em vídeo do final de março. Ele diz que o coronavírus é preocupante, mas que estamos sob duas maiores ameaças, uma iminente guerra nuclear e o aquecimento global, além da ameaça de deterioração da democracia. Neste momento, os países pobres, num mundo civilizado, deveriam estar recebendo ajuda dos países ricos para que as pessoas não morressem de fome.

Ao superarmos a crise teremos algumas opções, de estados altamente autoritários e brutais, com os quais o neoliberalismo ficaria feliz, à reconstrução radical da sociedade em termos mais humanos, em que o lucro não seja o mais importante.

Naomi Klein

A escritora e ativista canadense, autora de “A Doutrina do Choque”, falou à Vice e ao Intercept sobre o novo coronavírus. Klein diz que em momentos de crise as ideias mais inesperadas de repente se tornam possíveis de serem executadas e defende o chamado “green new deal”, que investe em indústrias limpas.

Peter Singer e Paola Cavalieri

O filósofo australiano, grande voz na defesa dos animais, e a jornalista e filósofa italiana, autora de um projeto que estende aos grandes primatas os direitos humanos, publicaram no início de março um texto no qual traçam um panorama do possível surgimento do Sars-Cov-2 em mercados de animais silvestres na China.

Eles defendem que não apenas leis que protejam espécies sejam instituídas, mas que o mundo todo proíba mercados em que animais são vendidos vivos.


Úrsula Passos é jornalista da Folha e mestre em filosofia pela USP.

Os africanos que propuseram ideias iluministas antes de Locke e Kant (Ilustríssima, FSP)

Ilustração de Fabio Zimbres

DAG HERBJORNSRUD
traduçãoCLARA ALLAIN
ilustraçãoFABIO ZIMBRES

RESUMO Os ideais mais elevados de Locke, Hume e Kant foram propostos mais de um século antes deles por Zera Yacob, um etíope que viveu numa caverna. O ganês Anton Amo usou noção da filosofia alemã antes de ela ser registrada oficialmente. Autor defende que ambos tenham lugar de destaque em meio aos pensadores iluministas.

*

Os ideais do Iluminismo são a base de nossas democracias e universidades no século 21: a crença na razão, na ciência, no ceticismo, no secularismo e na igualdade. De fato, nenhuma outro período se compara à era do Iluminismo.

A Antiguidade é inspiradora, mas está a um mundo de distância das sociedades modernas. A Idade Média é mais razoável do que sua reputação sugere, mas ainda assim é medieval. A Renascença foi gloriosa, mas em grande medida graças ao seu resultado: o Iluminismo. O romantismo veio como reação à era da razão, mas os ideais dos Estados modernos não se expressam em termos de romantismo e emoção.

Segundo a história mais contada, o Iluminismo tem origem no “Discurso do Método” (1637), de René Descartes, continuou por cerca de um século e meio com John Locke, Isaac Newton, David Hume, Voltaire e Kant e terminou com a Revolução Francesa, em 1789 —talvez com o período do terror, em 1793.

Mas e se a história estiver errada? E se o Iluminismo puder ser associado a lugares e pensadores que costumamos ignorar? Tais perguntas me assombram desde que topei com o trabalho de um filósofo etíope do século 17: Zera Yacob (1599-1692), também grafado Zära Yaqob.

Yacob nasceu numa família pobre numa propriedade agrícola perto de Axum, a lendária antiga capital do norte da Etiópia. Como estudante, ele impressionou seus professores e foi enviado a uma nova escola para estudar retórica (“siwasiw” em ge’ez, a língua local), poesia e pensamento crítico (“qiné”) por quatro anos.

Em seguida, estudou a Bíblia por dez anos em outra escola, recebendo ensinamentos dos católicos e dos coptas, bem como da tradição cristã ortodoxa, majoritária no país.

Na década de 1620, um jesuíta português convenceu o rei Susenyos a converter-se ao catolicismo, que não tardou a virar religião oficial da Etiópia. Seguiu-se uma perseguição aos livres-pensadores, mais intensa a partir de 1630. Yacob, que nessa época lecionava na região de Axum, havia declarado que nenhuma religião tem mais razão que outra —e seus inimigos o denunciaram para o rei.

Yacob fugiu, levando apenas um pouco de ouro e os Salmos de Davi. Viajou para o sul, para a região de Shewa, onde se deparou com o rio Tekezé.

Ali encontrou uma área desabitada com uma “bela caverna” no início de um vale. Construiu um muro de pedra e viveu nesse local isolado para “encarar apenas os fatos essenciais da vida”, como Henry David Thoreau descreveria uma vida também solitária, dois séculos mais tarde, em “Walden” (1854).

Por dois anos, até a morte do rei, em setembro de 1632, Yacob permaneceu na caverna como ermitão, saindo apenas para buscar alimentos no mercado mais próximo. Na caverna, ele alinhavou sua nova filosofia racionalista.

Ele acreditava na primazia da razão e afirmava que todos os seres humanos, homens e mulheres, são criados iguais. Yacob argumentou contra a escravidão, criticou todas as religiões e doutrinas reconhecidas e combinou essas opiniões com sua crença pessoal em um criador divino, asseverando que a existência de uma ordem no mundo faz dessa a opção mais racional.

Em suma: muitos dos ideais mais elevados do Iluminismo foram concebidos e resumidos por um homem que trabalhou sozinho em uma caverna etíope de 1630 a 1632.

LIVROS

A filosofia de Yacob, baseada na razão, é apresentada em sua obra principal, “Hatäta” (investigação). O livro foi escrito em 1667 por insistência de seu discípulo, Walda Heywat, que escreveu ele próprio uma “Hatäta” de orientação mais prática.

Hoje, 350 anos mais tarde, é difícil encontrar um exemplar do trabalho de Yacob. A única tradução ao inglês foi feita em 1976 pelo professor universitário e padre canadense Claude Sumner. Ele a publicou como parte de uma obra em cinco volumes sobre a filosofia etíope, que foi lançada pela nada comercial editora Commercial Printing Press, de Adis Abeba.

O livro foi traduzido ao alemão e, no ano passado, ao norueguês, mas ainda é basicamente impossível ter acesso a uma versão em inglês.

A filosofia não era novidade na Etiópia antes de Yacob. Por volta de 1510, “The Book of the Wise Philosophers” (o livro dos filósofos sábios) foi traduzido e adaptado ao etíope pelo egípcio Abba Mikael. Trata-se de uma coletânea de ditados de filósofos gregos pré-socráticos, Platão e Aristóteles por meio dos diálogos neoplatônicos, e também foi influenciado pela filosofia arábica e as discussões etíopes.

Em sua “Hatäta”, Yacob critica seus contemporâneos por não pensarem de modo independente e aceitarem as palavras de astrólogos e videntes só porque seus predecessores o faziam. Em contraste, ele recomenda uma investigação baseada na razão e na racionalidade científica, considerando que todo ser humano nasce dotado de inteligência e possui igual valor.

Longe dele, mas enfrentando questões semelhantes, estava o francês Descartes (1596-1650). Uma diferença filosófica importante entre eles é que o católico Descartes criticou explicitamente os infiéis e ateus em sua obra “Meditações Metafísicas” (1641).

Essa perspectiva encontra eco na “Carta sobre a Tolerância” (1689), de Locke, para quem os ateus não devem ser tolerados.

As “Meditações” de Descartes foram dedicadas “ao reitor e aos doutores da sagrada Faculdade de Teologia em Paris”, e sua premissa era “aceitar por meio da fé o fato de que a alma humana não morre com o corpo e de que Deus existe”.

Yacob, pelo contrário, propõe um método muito mais agnóstico, secular e inquisitivo —o que também reflete uma abertura ao pensamento ateu. O quarto capítulo da “Hatäta” começa com uma pergunta radical: “Tudo que está escrito nas Sagradas Escrituras é verdade?” Ele prossegue pontuando que todas as diferentes religiões alegam que sua fé é a verdadeira:

“De fato, cada uma delas diz: ‘Minha fé é a certa, e aqueles que creem em outra fé creem na falsidade e são inimigos de Deus’. (…) Assim como minha fé me parece verdadeira, outro considera verdadeira sua própria fé; mas a verdade é uma só”.

Assim, ele deslancha um discurso iluminista sobre a subjetividade da religião, mas continua a crer em algum tipo de criador universal. Sua discussão sobre a existência de Deus é mais aberta que a de Descartes e talvez mais acessível aos leitores de hoje, como quando incorpora perspectivas existencialistas:

“Quem foi que me deu um ouvido com o qual ouvir, quem me criou como ser reacional e como cheguei a este mundo? De onde venho? Tivesse eu vivido antes do criador do mundo, teria conhecido o início de minha vida e da consciência de mim mesmo. Quem me criou?”.

IDEIAS AVANÇADAS

No capítulo cinco, Yacob aplica a investigação racional a leis religiosas diferentes. Critica igualmente o cristianismo, o islã, o judaísmo e as religiões indianas.

Ele aponta, por exemplo, que o criador, em sua sabedoria, fez o sangue fluir mensalmente do útero das mulheres, para que elas possam gestar filhos. Assim, conclui que a lei de Moisés, segundo a qual as mulheres são impuras quando menstruam, contraria a natureza e o criador, já que “constitui um obstáculo ao casamento e a toda a vida da mulher, prejudica a lei da ajuda mútua, interdita a criação dos filhos e destrói o amor”.

Desse modo, inclui em seu argumento filosófico a perspectiva da solidariedade, da mulher e do afeto. E ele próprio viveu segundo esses ideais.

Ilustração de capa da Ilustríssima, por Fabio Zimbres

Depois de sair da caverna, pediu em casamento uma moça pobre chamada Hirut, criada de uma família rica. O patrão dela dizia que uma empregada não estava em pé de igualdade com um homem erudito, mas a visão de Yacob prevaleceu. Consumada a união, ele declarou que ela não deveria mais ser serva, mas seu par, porque “marido e mulher estão em pé de igualdade no casamento”.

Contrastando com essas posições, Kant (1724-1804) escreveu um século mais tarde em “Observações sobre o Sentimento do Belo e do Sublime” (1764): “Uma mulher pouco se constrange com o fato de não possuir determinados entendimentos”.

E, nos ensaios de ética do alemão, lemos que “o desejo de um homem por uma mulher não se dirige a ela como ser humano, pelo contrário, a humanidade da mulher não lhe interessa; o único objeto de seu desejo é o sexo dela”.

Yacob enxergava a mulher sob ótica completamente diferente: como par intelectual do filósofo.

Ele também foi mais iluminista que seus pares do Iluminismo no tocante à escravidão. No capítulo cinco, Yacob combate a ideia de que “possamos sair e comprar um homem como se fosse um animal”. Assim, ele propõe um argumento universal contra a discriminação:

“Todos os homens são iguais na presença de Deus; e todos são inteligentes, pois são suas criaturas; ele não destinou um povo à vida, outro à morte, um à misericórdia e outro ao julgamento. Nossa razão nos ensina que esse tipo de discriminação não pode existir”.

As palavras “todos os homens são iguais” foram escritas décadas antes de Locke (1632-1704), o pai do liberalismo, ter empunhado sua pena.

E a teoria do contrato social de Locke não se aplicava a todos na prática: ele foi secretário durante a redação das “Constituições Fundamentais da Carolina” (1669), que concederam aos homens brancos poder absoluto sobre seus escravos africanos. O próprio inglês investiu no comércio negreiro transatlântico.

Comparada à de seus pares filosóficos, portanto, a filosofia de Yacob frequentemente parece o epítome dos ideais que em geral atribuímos ao Iluminismo.

ANTON AMO

Alguns meses depois de ler a obra de Yacob, enfim tive acesso a outro livro raro: uma tradução dos escritos reunidos do filósofo Anton Amo (c. 1703-55), que nasceu e morreu em Gana.

Amo estudou e lecionou por duas décadas nas maiores universidades da Alemanha (como Halle e Jena), escrevendo em latim. Hoje, segundo o World Library Catalogue, só um punhado de exemplares de seu “Antonius Guilielmus Amo Afer of Axim in Ghana” está disponível em bibliotecas mundo afora.

O ganês nasceu um século após Yacob. Consta que ele foi sequestrado do povo akan e da cidade litorânea de Axim quando era pequeno, possivelmente para ser vendido como escravo, sendo levado a Amsterdã, para a corte do duque Anton Ulrich de Braunschweig-Wolfenbüttel —visitada com frequência pelo polímata G. W. Leibniz (1646-1716).

Batizado em 1707, Amo recebeu educação de alto nível, aprendendo hebraico, grego, latim, francês e alemão —e provavelmente sabia algo de sua língua materna, o nzema.

Tornou-se figura respeitada nos círculos acadêmicos. No livro de Carl Günther Ludovici sobre o iluminista Christian Wolff (1679-1754) —seguidor de Leibniz e fundador de várias disciplinas acadêmicas na Alemanha—, Amo é descrito como um dos wolffianos mais proeminentes.

No prefácio a “Sobre a Impassividade da Mente Humana” (1734), de Amo, o reitor da Universidade de Wittenberg, Johannes Gottfried Kraus, saúda o vasto conhecimento do autor, situa sua contribuição ao iluminismo alemão em um contexto histórico e sublinha o legado africano da Renascença europeia:

“Quando os mouros vindos da África atravessaram a Espanha, trouxeram com eles o conhecimento dos pensadores da Antiguidade e deram muita assistência ao desenvolvimento das letras que pouco a pouco emergiam das trevas”.

O fato de essas palavras terem saído do coração da Alemanha na primavera de 1733 ajuda a lembrar que Amo não foi o único africano a alcançar o sucesso na Europa do século 18.

Na mesma época, Abram Petrovich Gannibal (1696-1781), também sequestrado e levado da África subsaariana, tornava-se general do czar Pedro, o Grande, da Rússia. O bisneto de Gannibal se tornaria o poeta nacional da Rússia, Alexander Pushkin. E o escritor francês Alexandre Dumas (1802-70) foi neto de uma africana escravizada e filho de um general aristocrata negro nascido no Haiti.

Amo tampouco foi o único a levar diversidade e cosmopolitismo a Halle nas décadas de 1720 e 1730. Vários alunos judeus de grande talento estudaram na universidade. O professor árabe Salomon Negri, de Damasco, e o indiano Soltan Gün Achmet, de Ahmedabad, também passaram por lá.

CONTRA A ESCRAVIDÃO

Em sua tese, Amo escreveu explicitamente que havia outras teologias além da cristã, incluindo entre elas a dos turcos e a dos “pagãos”.

Ele discutiu essas questões na dissertação “Os Direitos dos Mouros na Europa”, em 1729. O trabalho não pode ser encontrado hoje, mas, no jornal semanal de Halle de novembro de 1729, há um artigo curto sobre o debate público de Amo. Segundo esse texto, o ganês apresentou argumentos contra a escravidão, aludindo ao direito romano, à tradição e à razão.

Será que Amo promoveu a primeira disputa legal da Europa contra a escravidão? Podemos pelo menos enxergar um argumento iluminista em favor do sufrágio universal, como o que Yacob propusera cem anos antes. Mas essas visões não discriminatórias parecem ter passado despercebidas dos pensadores principais do iluminismo no século 18.

David Hume (1711-76), por exemplo, escreveu: “Tendo a suspeitar que os negros, e todas as outras espécies de homem em geral (pois existem quatro ou cinco tipos diferentes), sejam naturalmente inferiores aos brancos”. E acrescentou: “Nunca houve nação civilizada de qualquer outra compleição senão a branca, nem indivíduo eminente em ação ou especulação”.

Kant levou adiante o argumento de Hume e enfatizou que a diferença fundamental entre negros e brancos “parece ser tão grande em capacidade mental quanto na cor”, antes de concluir, no texto do curso de geografia física: “A humanidade alcançou sua maior perfeição na raça dos brancos”.

Na França, o mais célebre pensador iluminista, Voltaire (1694-1778), não só descreveu os judeus em termos antissemitas, como quando escreveu que “todos eles nascem com fanatismo desvairado em seus corações”; em seu ensaio sobre a história universal (1756), ele afirmou que, se a inteligência dos africanos “não é de outra espécie que a nossa, é muito inferior”.

Como Locke, Voltaire investiu dinheiro no comércio de escravos.

CORPO E MENTE

A filosofia de Amo é mais teórica que a de Yacob, mas as duas compartilham uma visão iluminista da razão, tratando todos os humanos como iguais.

Seu trabalho é profundamente engajado com as questões da época, como se vê em seu livro mais conhecido, “Sobre a Impassividade da Mente Humana”, construído com um método de dedução lógica utilizando argumentos rígidos, aparentemente seguindo a linha de sua dissertação jurídica anterior. Aqui ele trata do dualismo cartesiano, a ideia de que existe uma diferença absoluta de substância entre a mente e o corpo.

Em alguns momentos Amo parece se opor a Descartes, como observa o filósofo contemporâneo Kwasi Wiredu. Ele argumenta que Amo se opôs ao dualismo cartesiano entre mente e corpo, favorecendo, em vez disso, a metafísica dos akan e o idioma nzema de sua primeira infância, segundo os quais sentimos a dor com nossa carne (“honem”), e não com a mente (“adwene”).

Ao mesmo tempo, Amo diz que vai tanto defender quanto atacar a visão de Descartes de que a alma (a mente) é capaz de agir e sofrer junto com o corpo. Ele escreve: “Em resposta a essas palavras, pedimos cautela e discordamos: admitimos que a mente atua junto com o corpo graças à mediação de uma união natural. Mas negamos que ela sofra junto com o corpo”.

Amo argumenta que as afirmações de Descartes sobre essas questões contrariam a visão do próprio filósofo francês. Ele conclui sua tese dizendo que devemos evitar confundir as coisas que fazem parte do corpo e da mente. Pois aquilo que opera na mente deve ser atribuído apenas à mente.

Talvez a verdade seja o que o filósofo Justin E. H. Smith, da Universidade de Paris, aponta em “Nature, Human Nature and Human Difference” (natureza, natureza humana e diferença humana, 2015): “Longe de rejeitar o dualismo cartesiano, pelo contrário, Amo propõe uma versão radicalizada dele”.

Mas será possível que tanto Wiredu quanto Smith tenham razão? Por exemplo, será que a filosofia akan tradicional e a língua nzema continham uma distinção cartesiana entre corpo e mente mais precisa que a de Descartes, um modo de pensar que Amo então levou para a filosofia europeia?

Talvez seja cedo demais para sabermos, já que uma edição crítica das obras de Amo ainda aguarda ser publicada, possivelmente pela Oxford University Press.

COISA EM SI

No trabalho mais profundo de Amo, “Treatise on the Art of Philosophising Soberly and Accurately” (tratado sobre a arte de filosofar com sobriedade e precisão, 1738), ele parece antecipar Kant. O livro trata das intenções de nossa mente e das ações humanas como sendo naturais, racionais ou de acordo com uma norma.

No primeiro capítulo, escrevendo em latim, Amo argumenta que “tudo é passível de ser conhecido como objeto em si mesmo, ou como uma sensação, ou como uma operação da mente”.

Ele desenvolve em seguida, dizendo que “a cognição ocorre com a coisa em si” e afirmando: “O aprendizado real é a cognição das coisas em si. E assim tem sua base na certeza da coisa conhecida”.

Seu texto original diz “omne cognoscibile aut res ipsa”, usando a noção latina “res ipsa” como “coisa em si”.

Hoje Kant é conhecido por seu conceito da “coisa em si” (“das Ding an sich”) em “Crítica da Razão Pura” (1787) —e seu argumento de que não podemos conhecer a coisa além de nossa representação mental dela.

Mas é fato sabido que essa não foi a primeira utilização do termo na filosofia iluminista. Como diz o dicionário Merriam-Webster no verbete “coisa em si”: “Primeira utilização conhecida: 1739”. Mesmo assim, isso foi dois anos depois de Amo ter entregue seu trabalho principal em Wittenberg, em 1737.

À luz dos exemplos desses dois filósofos iluministas, Zera Yacob e Anton Amo, talvez seja preciso repensarmos a Idade da Razão nas disciplinas da filosofia e da história das ideias.

Na disciplina da história, novos estudos comprovaram que a revolução mais bem-sucedida a ter nascido das ideias de liberdade, igualdade e fraternidade se deu no Haiti, não na França. A Revolução Haitiana (1791-1804) e as ideias de Toussaint L’Ouverture (1743″”1803) abriram o caminho para a independência do país, sua nova Constituição e a abolição da escravidão.

Em “Les Vengeurs du Nouveau Monde” (os vingadores do novo mundo, 2004), Laurent Dubois conclui que os acontecimentos no Haiti foram “a expressão mais concreta da ideia de que os direitos proclamados na Declaração dos Direitos do Homem e do Cidadão, de 1789, eram de fato universais”.

Nessa linha, podemos indagar se Yacob e Amo algum dia serão elevados à posição que merecem entre os filósofos da Era das Luzes.

*

Este texto foi publicado originalmente no site Aeon.

DAG HERBJORNSRUD, 46, é historiador de ideias e fundador do SGOKI (Centro de História Global e Comparativa de Ideias), em Oslo.

CLARA ALLAIN é tradutora.

FABIO ZIMBRES, 57, é quadrinista, designer e artista visual.

How philosophy came to disdain the wisdom of oral cultures (AEON)

01 June 2016

Justin E H Smith is a professor of history and philosophy of science at the Université Paris Diderot – Paris 7. He writes frequently for The New York Times and Harper’s Magazine. His latest book is The Philosopher: A History in Six Types(2016).

Published in association with Princeton University Press, an Aeon Partner

Edited by Marina Benjamin

ESSAY: We learn more about our language by listening to the wolves

IDEA: Why science needs to break the spell of reductive materialism

VIDEO: Does the meaning of words rest in our private minds or in our shared experience?

Idea sized ahron de leeuw 3224207371 bde659342e o

Ahron de Leeuw/Flickr

A poet, somewhere in Siberia, or the Balkans, or West Africa, some time in the past 60,000 years, recites thousands of memorised lines in the course of an evening. The lines are packed with fixed epithets and clichés. The bard is not concerned with originality, but with intonation and delivery: he or she is perfectly attuned to the circumstances of the day, and to the mood and expectations of his or her listeners.

If this were happening 6,000-plus years ago, the poet’s words would in no way have been anchored in visible signs, in text. For the vast majority of the time that human beings have been on Earth, words have had no worldly reality other than the sound made when they are spoken.

As the theorist Walter J Ong pointed out in Orality and Literacy: Technologizing the Word (1982), it is difficult, perhaps even impossible, now to imagine how differently language would have been experienced in a culture of ‘primary orality’. There would be nowhere to ‘look up a word’, no authoritative source telling us the shape the word ‘actually’ takes. There would be no way to affirm the word’s existence at all except by speaking it – and this necessary condition of survival is important for understanding the relatively repetitive nature of epic poetry. Say it over and over again, or it will slip away. In the absence of fixed, textual anchors for words, there would be a sharp sense that language is charged with power, almost magic: the idea that words, when spoken, can bring about new states of affairs in the world. They do not so much describe, as invoke.

As a consequence of the development of writing, first in the ancient Near East and soon after in Greece, old habits of thought began to die out, and certain other, previously latent, mental faculties began to express themselves. Words were now anchored and, though spellings could change from one generation to another, or one region to another, there were now physical traces that endured, which could be transmitted, consulted and pointed to in settling questions about the use or authority of spoken language.

Writing rapidly turned customs into laws, agreements into contracts, genealogical lore into history. In each case, what had once been fundamentally temporal and singular was transformed into something eternal (as in, ‘outside of time’) and general. Even the simple act of making everyday lists of common objects – an act impossible in a primary oral culture – was already a triumph of abstraction and systematisation. From here it was just one small step to what we now call ‘philosophy’.

Homer’s epic poetry, which originates in the same oral epic traditions as those of the Balkans or of West Africa, was written down, frozen, fixed, and from this it became ‘literature’. There are no arguments in the Iliad: much of what is said arises from metrical exigencies, the need to fill in a line with the right number of syllables, or from epithets whose function is largely mnemonic (and thus unnecessary when transferred into writing). Yet Homer would become an authority for early philosophers nonetheless: revealing truths about humanity not by argument or debate, but by declamation, now frozen into text.

Plato would express extreme concern about the role, if any, that poets should play in society. But he was not talking about poets as we think of them: he had in mind reciters, bards who incite emotions with living performances, invocations and channellings of absent persons and beings.

It is not orality that philosophy rejects, necessarily: Socrates himself rejected writing, identifying instead with a form of oral culture. Plato would also ensure the philosophical canonisation of his own mentor by writing down (how faithfully, we don’t know) what Socrates would have preferred to merely say, and so would have preferred to have lost to the wind. Arguably, it is in virtue of Plato’s recording that we might say, today, that Socrates was a philosopher.

Plato and Aristotle, both, were willing to learn from Homer, once he had been written down. And Socrates, though Plato still felt he had to write him down, was already engaged in a sort of activity very different from poetic recitation. This was dialectic: the structured, working-through of a question towards an end that has not been predetermined – even if this practice emerged indirectly from forms of reasoning only actualised with the advent of writing.

The freezing in text of dialectical reasoning, with a heavy admixture (however impure or problematic) of poetry, aphorism and myth, became the model for what, in the European tradition, was thought of as ‘philosophy’ for the next few millennia.

Why are these historical reflections important today? Because what is at stake is nothing less than our understanding of the scope and nature of philosophical enquiry.

The Italian philosopher of history Giambattista Vico wrote in his ScienzaNuova (1725): ‘the order of ideas must follow the order of institutions’. This order was, namely: ‘First the woods, then cultivated fields and huts, next little houses and villages, thence cities, finally academies and philosophers.’ It is implicit for Vico that the philosophers in these academies are not illiterate. The order of ideas is the order of the emergence of the technology of writing.

Within academic philosophy today, there is significant concern arising from how to make philosophy more ‘inclusive’, but no interest at all in questioning Vico’s order, in going back and recuperating what forms of thought might have been left behind in the woods and fields.

The groups ordinarily targeted by philosophy’s ‘inclusivity drive’ already dwell in the cities and share in literacy, even if discriminatory measures often block their full cultivation of it. No arguments are being made for the inclusion of people belonging to cultures that value other forms of knowledge: there are no efforts to recruit philosophers from among Inuit hunters or Hmong peasants.

The practical obstacles to such recruitment from a true cross-section of humanity are obvious. Were it to happen, the simple process of moving from traditional ways of life into academic institutions would at the same time dilute and transform the perspectives that are deserving of more attention. Irrespective of such unhappy outcomes, there is already substantial scholarship on these forms of thought accumulated in philosophy’s neighbouring disciplines – notably history, anthropology, and world literatures – to which philosophers already have access. It’s a literature that could serve as a corrective to the foundational bias, present since the emergence of philosophy as a distinct activity.

As it happens, there are few members of primary oral cultures left in the world. And yet from a historical perspective the great bulk of human experience resides with them. There are, moreover, members of literate cultures, and subcultures, whose primary experience of language is oral, based in storytelling, not argumentation, and that is living and charged, not fixed and frozen. Plato saw these people as representing a lower, and more dangerous, use of language than the one worthy of philosophers.

Philosophers still tend to disdain, or at least to conceive as categorically different from their own speciality, the use of language deployed by bards and poets, whether from Siberia or the South Bronx. Again, this disdain leaves out the bulk of human experience. Until it is eradicated, the present talk of the ideal of inclusion will remain mere lip-service.

El Foucault más íntimo, lejos de la gloria académica (El Clarín)

 

02/04/16

Entrevista con Daniel Defert.  El testimonio en primera persona del activista francés, compañero del filósofo por décadas, devuelve el retrato más emocionante del autor de “Vigilar y castigar”.

POR TANIA MARTINI Y ENRICO IPPOLITO

Escenas de pareja. Michel Foucault y Daniel Defert convivieron por más de 25 años. Aquí comparten una pipa de hachís.

Escenas de pareja. Michel Foucault y Daniel Defert convivieron por más de 25 años. Aquí comparten una pipa de hachís.

Compañero, testigo cercano y experto en su obra, Daniel Defert descubre en esta conversación al Foucault que las biografías no lograron terminar de pulir. Conoció al filósofo cuando era estudiante en la Universidad de Clermont-Ferrand, Francia. Y en 1963 comenzó la relación que terminó con la muerte de Foucault en 1984. Esta entrevista, publicada en Die Tageszeitung (Berlín), retrata la vida cotidiana del gran filósofo francés del siglo XX a través de la lente de quien fuera –además– el guardián del archivo Foucault hasta que fuera adquirido por de Biblioteca Nacional de Francia.

-Señor Defert, ¿por qué habla usted alemán? ¿Por Marx o por Goethe?

-Lo aprendí en la escuela. Pero en realidad viajo ya desde hace tiempo una vez por año a Alemania.

-En Alemania usted asistió a cursos sobre Bertolt Brecht.

-Eso fue en setiembre de 1960, cuando viajé por Alemania. En Heidelberg iba todos los días a clases sobre Bertolt Brecht. En Frankfurt conocí a un muchacho joven que era muy amigo de la esposa de Adorno. Él escribió un trabajo sobre André Gide. Tuve una historia con él. Me propuso visitar una clase de Adorno.

-¿Conoció usted a Adorno?

-No lo conocí. Rechacé la propuesta porque estaba cansado. Después volví a Francia y me presentaron a Foucault. Con el tiempo me arrepiento, ¡pues podría haber conocido a Adorno y Foucault en la misma semana!

-Parece que Foucault dijo una vez que si hubiera leído a Adorno más tempranamente, se hubiera ahorrado de escribir algunas cosas.

-Creo que lo dijo por cortesía.

-En la sociología de Frankfurt, Foucault fue rechazado por largo tiempo.

-El trato con la historicidad era todo lo contrario. Cuando la Escuela de Frankfurt (o incluso Hannah Arendt) hablaban de historia, siempre era algo de segunda mano. En cambio para Foucault era importante ir a los archivos y consultar las fuentes primarias.

-Al mismo tiempo, hasta el día de hoy la Escuela de Frankfurt no tiene demasiada recepción en Francia.

-Llegó a Francia a través de Jean Baudrillard, pero eso ya era una segunda ola. Antes ya había estado Henri Lefebvre.

-Foucault incorporó muchos filósofos alemanes.

-Yo incluso diría que era germanófilo. Leía y hablaba alemán. Cuando tuvo su examen en la École Normale Supérieure, pronunció mal una palabra alemana y el profesor se le rió. Foucault quedó avergonzado. Cuando su padre le preguntó qué le gustaría de regalo para tener éxito, él contestó: «clases de alemán».

–Después de la muerte de Foucault en 1984, usted fundó AIDES, la organización de lucha contra el SIDA más grande de Francia, y ha dedicado su vida a la lucha contra el SIDA.

–Sí, queríamos establecer un archivo de la historia de la organización. A mí no me gusta escribir, por eso hicimos el libro en forma de una entrevista. Hubo una primera versión del libro que no me gustó.

–¿Por qué no?

–Porque los entrevistadores reorganizaron la historia como algo demasiado personal. Desde el momento en que uno intenta trazar una cronología y llevar todo a una narrativa lineal, cambia el significado de los acontecimientos.

–¿Qué fue lo que le pareció demasiado personal?

–Tenía que ver con mi vida y mi relación con Foucault. Desde luego que la fundación de AIDES tiene que ver con la muerte de Foucault. Pero yo no quería hablar de cosas privadas, entonces descartamos el borrador y reestructuramos el libro.

–Usted también rechazó hablar con biógrafos de Michel Foucault, por ejemplo Didier Eribon, quien seguramente haya escrito la biografía más conocida de Foucault.

–Sí. Eribon conocía a Foucault muy bien. Después de la muerte de Foucault, no lo vi por dos años. Un día me llamó y me habló de la biografía. Yo no lo quise ver.

–¿Se ha arrepentido de eso?

–Pensé que su biografía iba a quedar bien. Además, fue de todos modos mejor que la haya hecho sin mí, puesto que él debía buscar respuestas e investigar hechos concretos. Para mi gusto, le quedó un Foucault demasiado académico. Por eso quedé decepcionado: no mostraba a l hombre como realmente era.

–¿En qué sentido?

–Suprimió todos los aspectos fantásticos y apasionantes de su vida. Me decepcionó y por eso acepté responderle algunas preguntas al biógrafo James Miller. Pero luego quedé horrorizado.

–¿Por qué?

–El libro de Miller no es serio. Es absurdo. La biografía de David Macey, The lives of Michel Foucault (1993) es buena. Él investigó mucho, leyó los textos de Foucault, mientras Eribon ni los miró… Sólo le interesaba su vida académica. La mayoría de la gente que trabaja sobre Foucault usa el libro de Macey.

–Usted dijo que se arrepiente de haber hablado con James Miller

–Miller quería a toda costa hacer una historia sadomasoquista de Foucault. Macey se interesó por el intelectual.

–Pero no sólo Eribon consideraba a Foucault un académico extraordinario. En un sistema universitario tan estricto y jerárquico como el francés, Foucault alcanzó la cima y llegó a ser profesor del Collège de France.

–Cuando conocí a Foucault en 1960, él acababa de regresar de Alemania. Era un «Herr Professor», uno de aquellos a quienes se les sostenía el abrigo —como se hacía en Alemania con los profesores antes de 1968. Él tenía treinta años y yo, veintiuno. Yo estaba impresionado por su look «Herr Professor».

–¿Y eso cambió en el 68?

–Foucault ya había cambiado antes. En 1966 se fue de Francia hacia Túnez y allí era muy cercano con sus estudiantes. En marzo del 66 estuvo involucrado en el primer movimiento estudiantil.

–¿Y en el 68?

–En mayo del 68 estaba en Túnez. Fue allí, no en Francia, donde cambió su relación hacia los estudiantes. Estaba involucrado en las luchas antijerárquicas. Incluso en el Collège de France, que tendía a mantener el estatuto del «Herr Professor», intentó conservar otro tipo de relación con los estudiantes. Allí tenía más de seiscientos oyentes en sus cursos: era un espectáculo. A él le gustaba más la forma de enseñar en EE.UU., los seminarios pequeños donde los estudiantes podían hablar con gran libertad. Todo eso se aleja del académico extraordinario al que usted aludió.

–¿Y esto es omitido por Eribon?

–Eribon está bien informado, pero es bastante pudoroso respecto de la vida privada. Eribon proyectó el deseo de una vida académica en Foucault. Por su parte, Miller reveló acontecimientos ocurridos en EE.UU., cosa que para mí fue muy interesante. Tenía algo original, como de inescrutable, que le faltaba a Eribon. Pero el resto ya es un disparate; creo que Miller proyectó sus propias fantasías sexuales.

–Resulta interesante que ambas miradas proyecten un tipo de fantasía sobre la vida de Foucault.

–Sí. Mire, la madre de Foucault era una mujer muy elegante y burguesa. Una vez me dijo: «No podés hablar de él porque sos su pareja». Pienso que tenía razón, por eso le hice caso y tampoco quise hablar sobre él en mi biografía, por más que los lectores lo hayan esperado.

–Los lectores esperan eso porque él es una superestrella, pero seguramente Foucault mismo habría rechazado ese interés por su vida. Por cierto, en 2015 visitamos su lugar de nacimiento y su tumba en Vendeuvre… 

–Su madre hizo poner en su tumba «Profesor del Collège de France», ¿lo ha visto? A mí me impactó. Yo hablé con ella del tema y me dijo: «Bueno, las palabras son sólo palabras, la gente las olvida, pero no los títulos». De modo que es la tumba de un académico.

–Usted quiso contar la historia política más que la privada y, sin embargo, ahora estamos hablando aquí de él …

–Es que mucho de lo que yo he pensado y escrito fue inspirado por Foucault. No en el sentido de lo que él decía, sino más bien en relación a un cierto hábito del pensamiento. Uno de los miembros de AIDES dijo una vez: «Defert nos impone siempre estas teorías foucaultianas». Pero yo jamás tuve intención de hacer tal cosa.

–¿Fue su muerte la razón de su trabajo con AIDES?

–En cierto modo yo fundé AIDES en nombre de Foucault. Su madre me dio su apoyo y me dijo que yo debía hacerlo por él.

–Usted dijo que no le agradaría hablar de su vida. ¿Por qué es tan difícil hablar de uno mismo? ¿Es lo mismo que escribir? Usted dice en su libro que resulta ocioso escribir si uno no encuentra una nueva forma para expresar lo que se tiene para decir.

–Eso tiene que ver con mi profundo convencimiento de no ser un autor. Foucault, en cambio, escribía todos los días. Durante 25 años lo vi cuatro, cinco horas diarias escribiendo. Cuando no escribía por dos días, ya estaba cerca de la neurosis. Le encantaba escribir. Yo no lo disfruto en absoluto. Y cuando uno no escribe, tampoco puede cambiar su propia escritura, encontrar nuevas formas de expresarse.

–¿Entonces se ha concentrado en su trabajo político?

–Siempre me gustó hacer cosas concretas y cuando estaban hechas, estaban hechas. Quizás eso sea una señal de histeria. El trabajo en el G.I.P. (Grupo de Información sobre las Prisiones) fue excelente. Foucault también estaba feliz con ello.

–¿Cuán estrecho era su trabajo en conjunto con él?

–Cuando conocí a Foucault, él no tenía la intención de quedarse en Francia. Había estado en Suecia, Polonia, Alemania y quería irse a Japón. Yo quería finalizar la Agrégation en filosofía para ganar algo de dinero. Como yo no quise irme a Japón, Foucault se quedó también en Francia. Jamás le dije que había reconsiderado mi decisión y que me quería ir con él, porque él ya lo había descartado. Así que nos quedamos en París, él escribió Las palabras y las cosas (1966) y yo me preparé para mi Agrégation. Ese fue su primer éxito. Nosotros éramos una pareja joven y muy enamorada, lo cual pienso que se reflejó en el proceso de escritura y también en el libro y su éxito. Luego yo me fui a Túnez y Foucault vino conmigo después. Surgió el 68 y yo adherí más tarde al movimiento, con los maoístas, cuando éstos ya estaban prohibidos. Me comprometí con los procesos de los presos políticos.

Vigilar y castigar (1975), el primer éxito internacional de Foucault, era una obra naturalmente vinculada a nuestra vida juntos y al G.I.P. Las intervenciones políticas eran importantes para Foucault, para su pensamiento y sus teorías.

– Una vez más, vuelve usted a la estrecha relación entre la obra de Foucault y los movimientos políticos, sus intervenciones políticas.

–Foucault elevó a la categoría de objetos políticos temas que antes no estaban politizados. Cuando escribió sobre la locura a finales de los 50 y principios de los 60, eso todavía no era una cuestión política. Y las prisiones tampoco lo eran en el 68, en absoluto. Eso sucedió recién después del 71 ó el 72, cuando en Francia surgieron grandes revueltas en las prisiones, en total unas 35, algunas de las cuales fueron completamente destruidas. Para la mayoría de los de mi generación, cuando yo hablo de política es como si fuera un chiste porque para muchos yo no estaba en la política por no estar afiliado al Partido Comunista. Pero mi vida política era con el movimiento de las prisiones y el de lucha contra el sida. En ambos casos fue necesaria una politización del objeto. De modo que una vida política significa también una transformación de la política. Justamente en relación a este segundo aspecto es que Foucault estaba políticamente involucrado. Estuvo por un lapso muy breve en el Partido Comunista y lo abandonó de inmediato. Estaba más entretenido que involucrado con la política. Pero su accionar era político.

–Hablemos de las formas de lo político. Usted escribe en su libro que después del 68, el análisis social era más un movimiento de masas que parte de la sociología.

–Esa fue mi experiencia. En Inglaterra hice una encuesta para un instituto sociológico y me di cuenta que el análisis estaba en la calle, que los movimientos sociales en sí mismos eran el análisis.

–En Alemania hay un modo de leer a Foucault como apolítico o incluso como pensador neoconservador.

–Porque él rechazó un análisis centrado en el Estado y observó la diversidad de las prácticas de poder, estudiándolas como parte de la relación de fuerzas del poder. Para él se trataba más de las prácticas y las relaciones por debajo del poder estatal o, dicho de otra manera, de la relación entre médico y paciente, maestro y alumno, así como entre gobernante y gobernado. Para los marxistas, el poder sólo existía en su forma represiva. Foucault no estaba tan obsesionado con el Estado, más bien preguntaba por las formas del devenir-gobernado. Le interesaban las técnicas de control, no las instituciones en sí.

–¿Era por esto escéptico respecto a los militantes radicales de izquierda, quienes apuntaban al Estado con sus acciones?

–Foucault estaba contra el terrorismo en los países democráticos. Ésa fue también la razón por la cual se negó a apoyar las Brigadas Rojas en Italia. A raíz de una entrevista que dio en Italia para L‘Unità , se generaron algunas tensiones con Felix Guattari y Gilles Deleuze. Yo estaba más cerca de Adriano Sofri y Lotta Continua. Cuando Guattari publicó el escrito de Trotsky sobre el fascismo en Alemania, Deleuze y Foucault rompieron relaciones. Foucault pensaba que no se podía decir que el Estado alemán era un país fascista en aquel momento. Él se interesó por la RAF (Rote Armee Fraktion, el grupo Fracción Ejército rojo), pero le resultaba algo sospechosa. Estaba seguro de que Alemania Federal había sido apoyada por los soviéticos.

–En Berlín usted fue vigilado por la policía. ¿Foucault peleaba a menudo con la policía?

–Lo detuvieron varias veces y luchaba permanentemente con la policía. Lo tenían como un radical de izquierda.

–¿Por las acciones con el G.I.P., donde Sartre también estuvo involucrado?

–Sartre y Foucault eran muy cercanos en aquella época. Pero no se trataba de una relación intelectual porque discutían muy poco. Cuando Foucault conoció a Sartre, éste ya estaba muy viejo y casi ciego. Tenían un trato muy amigable. Foucault llevaba a Sartre a todos lados: a las fábricas de Renault, a las huelgas y demás. Era una amistad práctica, no hablaban de sus diferencias.

–¿Cómo era la amistad con Roland Barthes?

–Se conocieron en los 50. Quizás yo sea algo culpable de que no tuvieran una relación tan estrecha. A Barthes le gustaba ir a los bares a partir de las 18, pero en 1963 yo estudiaba filosofía y Foucault escribía Las palabras y las cosas , por lo tanto dejamos de salir. Barthes se quedó muy triste por ello, ya que Foucault le prestaba brillo intelectual a su vida nocturna. Sin Foucault, era sólo un programa con gigolós. Foucault y Barthes tenían una relación singular. Barthes siempre le copiaba un poquito a Foucault.

–¿Conoció Foucault a la otra gran figura de la izquierda radical francesa, Guy Debord?

–No.

Vigilar y castigar (1975) es incluso contrario a La sociedad del espectáculo (1967). Foucault leyó en parte a Debord, pero no demasiado. En Vigilar y castigar está este abogado del siglo XIX; allí describe las prisiones como algo exactamente opuesto al circo de Roma. Foucault tomó esto como punto de partida para mostrar que la sociedad moderna consiste, precisamente, no en el espectáculo sino en el control y la vigilancia. Así que va directamente en contra de Debord. Pero en los situacionistas también estaba Isidore Isou, quien asistió a los cursos de Foucault y le envió sus obras.

–Perdón, usted lo llama Foucault y nunca Michel…

–Antes siempre decía Michel cuando hablaba de él pero luego se convirtió en una figura pública y cada vez que decía Michel, la gente a mí alrededor también decía Michel. Eso siempre me molestó porque él era mi Michel. Toda la experiencia con AIDES fue una posibilidad de estar con él. Pensé por él, con él. Fue la posibilidad de estar cerca suyo.

© Tania Martini. Traducción: Mateo Dieste

Feyerabend and the harmfulness of the ontological turn (Agent Swarm)

Posted on 

by Terence Blake

Feyerabend stands in opposition to the demand for a new construction that some thinkers have made after the supposed failure or historical obsolescence of deconstruction and of post-structuralism in general. On the contrary, he wholeheartedly endorses the continued necessity of deconstruction. Feyerabend also rejects the idea that we need an overarching system or a unified theoretical framework, arguing that in many cases a system or theoretical framework is just not necessary or even useful:

a theoretical framework may not be needed (do I need a theoretical framework to get along with my neighbor?) . Even a domain that uses theories may not need a theoretical framework (in periods of revolution theories are not used as frameworks but are broken into pieces which are then arranged this way and that way until something interesting seems to arise) (Philosophy and Methodology of Military Intelligence, 13).

Further, not only is a unified framework often unnecessary, it is undesirable, as it can be a hindrance to our research and to the conduct of our lives:

“frameworks always put undue constraints on any interesting activity” (ibid, 13).

Feyerabend emphasises that our ideas must be sufficiently complex to fit in and to cope with the complexity of our practices (11). More important than a new theoretical construction which only serves “to confuse people instead of helping them” we need ideas that have the complexity and the fluidity that come from close connection with concrete practice and with its “fruitful imprecision” (11).

Lacking this connection, we get only school philosophies that “deceive people but do not help them”. They deceive people by replacing the concrete world with their own abstract construction

that gives some general and very mislead[ing] outlines but never descends to details.

The result is a simplistic set of slogans and stereotypes that

“is taken seriously only by people who have no original ideas and think that [such a school philosophy] might help them getting ideas”.

Applied to the the ontological turn, this means that an ontological system is useless, a hindrance to thought and action, whereas an ontology which is not crystallised into a unified system and a closed set of fixed principles, but which limits itself to proposing an open set of rules of thumb and of free study of concrete cases is both acceptable and desirable. The detour through ontology is both useless and harmful, according to Feyerabend, because a freer, more open, and less technical approach is possible.

Anthropologies #21: Annual Review of Anthropology, Climate Change, Anthropocene (Savage Minds)

August 31, 2015 / 

To kick off this issue, we begin with Sean Seary’s excellent overview of recent literature about anthropology’s engagement with climate. This review originally appeared on Anthropology Report, has been reproduced here to give us a solid foundation for moving forward. Seary, a recent graduate from Hartwick College, currently lives in Brunswick, Maine. His research interests focus on the convergence of anthropology and climate change. Seary’s work has also been featured on PopAnth. –R.A.

Introduction: Anthropological Interventions

Since the 1960s, global climate and environmental change have been important topics of contemporary scientific research. Growing concerns about climate change have introduced a (relatively) new variable in climate change research: the anthropogenic causes of local-global climate and environmental change. Despite archaeologists providing some of the first research and commentary on climate change–a point that is explored in Daniel Sandweiss and Alice Kelley’s Archaeological Contributions to Climate Change Research: The Archaeological Record as a Paleoclimatic and Paleoenvironmental Archive–the field of climate and environmental change research has been predominantly studied by “natural scientists.” This is where Susan Crate’s Climate and Culture: Anthropology in the Era of Contemporary Climate Change in the 2011 Annual Review of Anthropology intervenes. Crate calls for anthropological engagement with the natural sciences (and vice versa) on global climate change discourse, with the intention of creating new multidisciplinary ethnographies that reflect all the contributors to global environmental change.

Crate’s review begins by stating that the earliest anthropological research on climate change was associated with archaeologists: most of whom studied how climate change had an impact on cultural dynamics, societal resilience and decline, and social structure. Anthropological and archaeological engagement with climate change revolved around how cultures attributed meaning and value to their interpretations of weather and climate. Archaeology has long been working on understanding the relationship between climate, environment, and culture. Historically, archaeologists have worked with “natural” scientists in the recovery of climate and environmental data pulled from archaeological strata (Sandweiss and Kelley 2012:372). Such works include Environment and Archaeology: An Introduction to Pleistocene Geography (Butzer 1964), Principles of Geoarchaeology: A North American Perspective (Waters 1992) and Environmental Archaeology: Principles and Practice(Dincauze 2000). The archaeological record incorporates not only stratigraphic data, but also proxy records. These records contributed to much larger paleoclimate and paleoenvironmental studies, including publications in general science literature like ScienceNature, and Proceedings of the National Academy of Sciences (Sandweiss and Kelley 2012:372; see also the 2013 article in NatureContribution of anthropology to the study of climate change). Conversely, the work of “natural” scientists has also appeared in archaeological literature. Contemporarily, archaeologists have studied the impacts that water (or lack thereof) can have on human-environment interactions, through the study of soil and settlements drawing from case studies in Coastal Peru, Northern Mesopotamia, the Penobscot Valley in Maine, or Shetland Island.

Contemporary anthropological analysis of climate change usually focuses on adaptations towards local climate, temperature, flooding, rainfall, and drought (Crate 2011:178). Climate change impacts the cultural framework in which people perceive, understand, experience, and respond to the world in which they live. Crate believes that because of anthropologists’ ability to “be there,” anthropologists are well-suited to interpret, facilitate, translate, communicate, advocate, and act in response to the cultural implications of global (and local) climate change. Understanding the role that people and culture play in understanding land use changes is crucial to defining anthropology’s engagement with climate change. Anthropologists, as well as scientists from allied disciplines must engage in vigorous cross-scale, local-global approaches in order to understand the implications of climate change (Crate 2011:176).

Crate urges that anthropology use its experience in place-based community research and apply it to a global scale, while focusing on ethnoclimatology, resilience, disasters, displacement, and resource management. By studying people living in “climate-sensitive” areas, anthropologists can document how people observe, perceive, and respond to the local effects of global climate change, which at times can compromise not only their physical livelihood, but also undermine their cultural orientations and frameworks (Crate 2011:179). Anthropology is well positioned to understand the “second disaster,” or sociocultural displacement which follows the first disaster (physical displacement), as a result local environmental and climate change. Some of these “second disasters” include shifts in local governance, resource rights, and domestic and international politics (Crate 2011:180). These “second disasters” present yet another challenge to anthropology’s involvement with global climate change: that global climate change is a human rights issue. Therefore, anthropologists should take the initiative in being active and empowering local populations, regions, and even nation-states to seek redress for the damage done by climate change (Crate 2011:182) It is the responsibility of anthropologists working in the field of climate change to link the local and lived realities of environmental change with national and international policies.

In order to accommodate to the rapidly changing (human) ecology, anthropology is in need of new ethnographies that show how the “global” envelops the local, and the subsequent imbalance (environmental injustice/racism) that it creates during this process. Crate urgently calls for anthropologists to become actors in the policy process, utilizing a multidisciplinary, multi-sited collaboration between organizations, foundations, associations, as well as political think tanks and other scientific disciplines. Anthropology’s task at hand is to bridge what is known about climate change to those who are not aware of its impacts, in order to facilitate a global understanding of climate change and its reach (Crate 2011:184).

Crate’s “Climate and Culture” may not have been the first Annual Review article regarding climate change and anthropology, but it is certainly one of the most urgent and pressing. Crate became a member of the American Anthropological Association’s Global Climate Change Task Force. Their report released in January 2015 sets an ambitious agenda for anthropology and climate change. Crate’s article also became foundational for a thematic emphasis of the 2012 Annual Review of Anthropology, which featured seven additional articles on anthropology and climate change.

Politics of the Anthropogenic

Nathan Sayre’s Politics of the Anthropogenic continues where Crate’s Climate and Culture left off: at the advent of a new form of anthropology, one that utilizes an interdisciplinary approach towards understanding the human ecology in relation to global climate change. Sayre invokes a term which Crate did not use in her review article, but that seems to have increasing salience to anthropology: The Anthropocene. Notably, the idea of the Anthropocene and its relationship to anthropology was also the subject of Bruno Latour’s keynote lecture to the American Anthropological Association in 2014: Anthropology at the Time of the Anthropocene.

Sayre describes the Anthropocene as the moment in history when humanity began to dominate, rather than coexist with the “natural” world (Sayre 2012:58). What defines the Anthropocene as a distinct epoch or era is when human activities rapidly shifted (most often considered the Industrial Revolution) from merely influencing the environment in some ways to dominating it in many ways. This is evident in population growth, urbanization, dams, transportation, greenhouse gas emissions, deforestation, and the overexploitation of natural resources. The adverse effects of anthropogenic climate change can be measured on nearly every corner of the earth. As a result of local environmental change and global climate change, humans, climate, soil, and nonhuman biota have begun to collapse into one another; in this scenario, it is impossible to disentangle the “social” from the “natural” (Sayre 2012:62). Sayre states that anthropology’s role, together with other sciences, in analyzing climate change in the Anthropocene is to understand that there is no dichotomy between what is considered natural and cultural. Understanding the fluctuations in the earth’s ecosystems cannot be accounted for without dispelling the ideological separation between the natural and the cultural. By adopting conceptual models of “climate justice” and earth system science, anthropologists and biophysical scientists can further dispel the archaic dichotomy of humanity and nature.

The atmosphere, the earth, the oceans, are genuinely global commons. However, environmental climate change and the subsequent effects are profoundly and unevenly distributed throughout space and time (Sayre 2012:65). Biophysically and socioeconomically, the areas that have contributed most to global climate change are the least likely to suffer from its consequences. Those who have contributed the least suffer the most. Anthropologists can play an important role in utilizing climate-based ethnography to help explain and understand the institutions that are most responsible for anthropogenic global warming–oil, coal, electricity, automobiles–and the misinformation, lobbying, and public relations behind “climate denialism” in the Anthropocene. This is the first step in seeking redress for the atrocities of environmental injustice.

Evolution and Environmental Change in Early Human Prehistory

Understanding climate change in the Anthropocene is no easy task, but as Richard Potts argues in Evolution and Environmental Change in Early Human Prehistory, humans have been influencing their environments and their environments have been influencing them well before the era that is considered the “Anthropocene.” Throughout the last several million years the earth has experienced one of its most dramatic eras of climate change, which consequently coincided with the origin of hominins. Homo sapiens represent a turning point in the history of protohuman and human life, because of their capacity to modify habitats and transform ecosystems. Now, approximately 50% of today’s land surface is reserved for human energy flow, and a further 83% of all the viable land on the planet has either been occupied or altered to some extent (Potts 2012:152).

Vrba’s turnover-pulse hypothesis (TPH) and Potts’s variability selection hypothesis (VSH) both serve as explanations for the correlation between environmental and evolutionary change. Vrba’s TPH focused on the origination and extinction of lineages coinciding with environmental change, particularly the rate of species turnovers following major dry periods across equatorial Africa. Potts’s VSH focused on the inherited traits that arose in times of habitat variability, and the selection/favoring of traits that were more adaptively versatile to unstable environments (Potts 2012:154-5). There are three ways in which environmental change and human evolution can potentially be linked. First, evolutionary events may be concentrated in periods of directional environmental change. Second, evolution may be elicited during times of rising environmental variability and resource uncertainty. Finally, evolution may be independent of environmental trend or variability (Potts 2012:155). The aforementioned hypotheses and subsequent links between evolution and environmental change help shed light on the origins and adaptations of Homo sapiens and Homo neanderthals. The anatomical, behavioral, and environmental differences between neanderthals and modern humans suggests that their distinct fates reflect their differing abilities to adjusting to diverse and fluctuating habitats (Potts 2012:160). Potts does an excellent job of stating that before the Anthropocene, early Homo sapiens and Homo neanderthals not only impacted and manipulate their surrounding environments, but were (genetically) impacted by their environments.

Sea Change: Island Communities and Climate Change

Heather Lazrus’s Annual Review article Sea Change: Island Communities and Climate Change returns to climate change in the more recent Anthropocene. For island communities, climate change is an immediate and lived reality in already environmentally fragile areas. These island communities, despite their seeming isolation and impoverishment, are often deeply globally connected in ways that go beyond simplistic descriptions of “poverty” and “isolated” (Lazrus 2012:286). Globally, islands are home to one-tenth of the world’s population, and much of the world’s population tends to be concentrated along coasts. Therefore both are subject to very similar changes in climate and extreme weather events. Islands tend to be regarded as the planet’s “barometers of change” because of their sensitivity to climate change (Lazrus 2012:287). Not only are islands environmentally dynamic areas, consisting of a variety of plants and animal species, but they also have the potential to be areas of significant social, economic, and political interest.

Madagascar: A History of Arrivals, What Happened, and Will Happen Next

Madagascar is a fascinating example of sociopolitical and ecological convergence, and is explored by Robert Dewar and Alison Richard in their Madagascar: A History of Arrivals, What Happened, and Will Happen Next. Madagascar has an extremely diverse system of human ecology that is nearly as diverse the island’s topography, environments, and climate. As a product of its physical diversity, the human ecology of Madagascar has a dynamic social and cultural history. In the Southwest, the Mikea derive significant portions of their food from foraging in the dry forest. Outside of most urban areas, hunting and collecting wild plants is common. Along the west coast, fishing is crucial as a central focus of the economy, but also as a supplement to farming. Farmers in Madagascar have a wide range of varieties and species to choose from including maize, sweet potatoes, coffee, cacao, pepper, cloves, cattle, chickens, sheep, goats, pigs, and turkeys (Dewar and Richard 2012:505). Throughout the island, rice and cattle are the two most culturally and economically important domesticates, and are subsequently adapted to growing under the local conditions of the microclimates of Madagascar. Semi-nomadic cattle pastoralism takes place in the drier regions of Madagascar. Whatever the environmental, climatic, social, or economic surroundings may be, Madagascar (as well as other islands) serve as local microcosms for climate change on the global scale. This relates to Crate’s call for an anthropology that brings forth the global array of connections (“natural”/ sociocultural) portraying local issues of climate change to the global sphere.

Ethnoprimatology and the Anthropology of the Human-Primate Interface

Agustin Fuentes’s main arguments in Ethnoprimatology and the Anthropology of the Human-Primate Interface focus on human-induced climate change and how it affects a vast amount of species, including the other primates (Fuentes 2012:110). By getting rid of the ideology that humans are separate from natural ecosystems and the animals within them, then anthropology can better grasp inquiries relating to global climate change within the Anthropocene. Fuentes then goes on to say (similarly to Crate and Sayre) that by freeing anthropological (and other scientific discourse) from the dichotomy of nature and culture, people will fully understand their relationship in the order of primates, but also their place within the environment. Our human capacity to build vast urban areas, transportation systems, and the deforestation of woodland all impact the local environments in which we live, and consequently gives humans an aura of dominance over nature. As Fuentes states, “at the global level, humans are ecosystem engineers on the largest of scales, and these altered ecologies are inherited not only by subsequent generations of humans but by all the sympatric species residing within them. The ways in which humans and other organisms coexist (and/or conflict) within these anthropogenic ecologies shape the perceptions, interactions, histories, and futures of the inhabitants” (Fuentes 2012:110). Essentially, Fuentes points out that humans have dominated ecosystems on a global scale; however, this has impacted not only human populations but also various plant and animals species, as well as entire ecosystems. It is only within the understanding of the symbiotic relationship between human/plants/animals/ecosystems that people will realize their impact on the environment on a global scale.

Lives With Others: Climate Change and Human-Animal Relations

In Lives With Others: Climate Change and Human-Animal Relations, Rebecca Cassidy ties together Fuentes’s arguments with Crate’s by demonstrating how climate change not only impacts people’s physical livelihood, but also their sociocultural lives. Cassidy states that people with animal-centered livelihoods experience climate change on many different levels, and subsequently, climate change may see those animals (or plants) become incapable of fulfilling their existing functions. Societies that are most frequently geopolitically marginalized often are left reeling from the impacts that climate change has on their social, political, economic, and environmental lives (Cassidy 2012:24). The impacts that climate change has on marginalized societies often affects their ability to live symbiotically and sustainably with other species. Human/animal “persons” are conceived to be reciprocal and equal, living in a symbiotic world system, in which their sustenance, reproduction, life, and death are all equally important. The extinction of particular species of animals and plants can cause cosmological crises, as well as disrupt the potential for future adaptability.

Cassidy’s claim that humans, animals, plants, and their environments are reciprocal and symbiotic ties in with Crate’s plea for an anthropology that rids itself of the old dichotomy of the natural and cultural. Crate’s idea for new ethnographies that consider the human ecology of climate change begin by utilizing what Lazrus calls Traditional Environmental Knowledge, or TEK. TEK is “a cumulative body of knowledge, practice, and belief, evolving by adaptive process and handed down through generations by cultural transmission, about the relationship of living beings (including humans) with one another and with their environment” (Lazrus 2012:290). TEK utilizes the spiritual, cosmological, and moral practices that condition human relationships with their surrounding physical environments. Such ethnographies should reflect all of the potential contributors to climate change in the Anthropocene, but they should also infuse new urgency to anthropological approaches. As Crate states “anthropologists need to become more globalized agents for change by being more active as public servants and engaging more with nonanthropological approaches regarding climate change” (Crate 2011: 183).

As made evident by the work of Sandweiss and Kelley, anthropology has early roots in climate change research dating back to the 1960s. Since then, anthropology’s contribution to climate change research has been significant, and is now sparking a new generation of engaged anthropology in the Anthropocene.