Arquivo da categoria: saúde mental

The History of Pain (The Appendix)


How should we write the history of that most fundamental but subjective characteristic of sentience: pain?

The History of Pain

I recently came across a fascinating article in The Appendix by Ph.D candidate Lindsay Keiter entitled Interpreting “Physick”: The Familiar and Foreign Eighteenth-Century Body. Law professor Frank Pasquale excerpted it thusly:

Because I am an historian of pain, this excerpt naturally piqued my interest, and I went to examine the entire article. Now, I must confess straight off that I study 19th and early 20th century America. But I spend an awful lot of time interloping in early modern and medieval studies of pain, in part because my work addresses changing ideas of pain in the 19th century. If you really want to understand how ideas about pain change in the modern era, you need to know at least something about the ideas that preceded them.

I was, I confess, quite skeptical about the excerpt, but I wanted to read the article from start to finish. Here is what Ms. Keiter has to say about pain:

Most visitors are mildly alarmed to learn that there was nothing available for mild, systemic pain relief in the eighteenth century. You’d have to come back next century for aspirin. Potent pain management was available via opium latex, often mixed with wine and brandy to make laudanum. In the eighteenth century, small amounts were used as a narcotic, a sedative, a cough suppressant, or to stop up the bowels, but not for headaches.

This is (appropriately) carefully qualified, but even so, I do not think it is quite right. I think there are two points that are really important to clarify when thinking about the use of medicinal therapies for the relief of pain.

First, it has long been argued that professional healers at least as far back as the Middle Ages generally were not focused on alleviating their patients’ pain. Of course, then, as now, pain is a multivalent, rich, and highly ambiguous phenomenon, one that lends easily to metaphor and account in a wide variety of social domain. So, as Esther Cohen shows, most discussions of pain in Western medieval culture tend to appear in theological contexts, whereas early modern and modern expressions of pain often appear more in literary formats. It is actually surprisingly difficult to find people discussing their own phenomenologies of pain specifically in therapeutic contexts.


A mid-17th century depiction of a quack doctor and his assistants performing public surgery on an unfortunate young man. Various medicinal liquors and unguents are on display to his right, and a recently treated man is hastily downing a post-op beer while being wheeled away from the scene.Jan Steen, “The Quack Doctor,” c. 1660, Rijksmuseum Amsterdam.

But both medievalists and early modernists have set about revising or at least complicating some aspects of the long-held belief that analgesia was not a major priority. Cohen shows beyond doubt in late medieval culture that both lay sufferers and healers focused much on pain, and that there is ample evidence from which to conclude that healers believed in the importance of and strove, where possible, to alleviate their charges’ pain. She notes:

Surcease might not have been the primary goal of physicians, who often considered pain an ancillary phenomenon, but in the end, the recommended cure was meant to also bring freedom from pain. It is important to remember that the great majority of the suffering sick agreed with this point of view. People turned to saints, physicians, or simple healers to have their pain eases, not increased. No matter how vociferous the literature in praise of pain is, it cannot silence the evidence for the basic human search for painlessness.

The evidence, as I understand it, suggests that a medieval emphasis on the redemptive qualities of pain and the difficulties in ameliorating it existed simultaneously along with a fairly intense and significant focus on the need to alleviate it.

On Twitter, historian of medicine Samantha Sandassie noted that one can find many recipes for analgesic remedies in early modern casebooks and treatises:

Daniel Goldberg @prof_goldberg .@FrankPasquale @ArsScripta I’m a modern historian of pain, not EM, but this strikes me as not quite right. Relief of pain was major [1]

Samantha Sandassie @medhistorian.@FrankPasquale @ArsScripta agreeing with @prof_goldberg on this one; surgical casebooks & treatises contain fair bit of pain mngment info.

In a follow-up email, Ms. Sandassie suggests examining primary sources such as The Diary of Elizabeth Freke and The Diary of the Rev. Ralph Josselin.

In early modern contexts, historians such as Lisa Smith and Hannah Newtonhave documented overt and in some contexts (the pain and suffering of children) even overwhelming medical and healing attention to experiences of pain and the need for its alleviation in illness scenarios.

So, I would want to suggest that we lack a lot of good evidence for the claim that even “mild” and “systemic” pain did not occupy the attention of healers in the West during the 18th c., and we have an increasing historiography suggesting that in fact such pain occupied a good deal of attention both in those who experienced it and in those from whom the pain sufferers sought relief.

The second point I want to make here is a larger claim regarding thinking about how well medicines may have “worked” in past contexts. And here I’d like to emphasize the flip side of Ms. Sandassie’s excellent point above: that while the past may not be incommensurable, it is nevertheless at times so very different from our contemporary world that presentism is an ever-present danger. The past, as L.P. Hartley famously observed, is a foreign country, and sometimes we benefit from treating it that way.

What does it mean for a remedy to “work”? And in answering this question as responsible historians, we cannot supply an answer that provides the criteria for what “works” in our contemporary contexts — and of course there are vibrant debates on exactly what it means for a medicine to “work” even among contemporaries. For example, does a medicine work for the relief of pain if it fails to surpass placebo in a relevant clinical trial? Given that placebos can be quite effective in relieving pain, at least temporarily, do we conclude from the failure that the medicine does not “work”?

In historical context, historians of medicine should IMO aim to answer this question by asking what it meant for people in the periods in which we are interested for a remedy to “work.” Although I am an historian of ideas rather than a social historian, I take the lessons of the New Social Turn seriously. If we really want to gain insight into the phenomenology of pain and illness in the past, we have to inquire as to the social meaning of medicines and remedies in their own contexts.

In his classic 1977 paper “The Therapeutic Revolution: Medicine, Meaning and Social Change in Nineteenth‑Century America,” Charles Rosenberg argued that remedies that “worked” in the early 19th century were those that had visible effects consistent with what one would expect and desire in a humoral system:

The American physician in 1800 had no diagnostic tools beyond his senses and it is hardly surprising that he would find congenial a framework of explanation which emphasized the importance of intake and outgo, of the significance of perspiration, of pulse, or urination and menstruation, of defecation, of the surface eruptions which might accompany fevers or other internal ills. These were phenomena which he as physician, the patient, and the patient’s family could see, evaluate, and scrutinize for clues as to the sick person’s fate.

But if diagnosis for both the physician, the illness sufferer, and the family depended in pertinent part on the visible* signs that signified morbid changes in humoral balance, one would predict that remedies which also operated on this semiotic basis would be so favored. Rosenberg states:

The effectiveness of the system hinged to a significant extent on the fact that all the weapons in the physician’s normal armamentarium worked — “worked,” that is, by providing visible and predictable physiological effects: purges purged, emetics induced vomiting, opium soothed pain and moderated diarrhea. Bleeding, too, seemed obviously to alter the body’s internal balance, as evidenced both by a changed pulse and the very quantity of blood drawn. Blisters and other purposefully induced local irritations certainly produced visible effects — and presumably internal consequences corresponding to their pain and location and to the nature and extent of the matter discharged.

This, then, is the point. It is not productive, in my view, to think about whether or not early 19th c. or 18th c. remedies for pain “worked” by applying present notions of efficacy. Such an approach does not make sense of how those who used and received the remedies for pain would have understood those remedies — it obfuscates both their own phenomenologies of pain and their own efforts and the efforts of their caregivers, intimates, and healers to alleviate that pain. What we would have to do to understand the extent to which 18th c. remedies for pain “worked” is to understand what it meant for such a remedy to work for people of that time.

Rosenberg, of course, emphasizes the importance of understanding “biological and social realities” of therapeutics in early 19th c. America. And in a follow-up Twitter exchange, Benjamin Breen was quick to point out (correctly, I think), that

Benjamin Breen @ResObscura @prof_goldberg @allenshotwell @medhistorian But on the other hand, the biological efficacy of drugs had a real historical role, no? I.e.
Daniel Goldberg @prof_goldberg @ResObscura @AllenShotwell @medhistorian *writing feverishly* — hope to have post up soon . . .
Benjamin Breen @ResObscura @prof_goldberg @allenshotwell @medhistorian cinchona RX for malaria was major event, precisely because it “worked” where others failed.

This is an important corrective. Acknowledging what anthropologists have termed the “social lives of medicines” is not equivalent to denying “biological reality.” However, I reject a neat distinction between biological action and cultural factors. This is not to deny the reality of the former, but to argue instead that the distinction is not particularly helpful in making sense of the history of medicine.

*   *   *

Interpreting “Physick”: The Familiar and Foreign Eighteenth-Century Body

Photograph of recreated apothecary shop

A recreated apothecary shop in Alexandria, Virginia, is representative of the style and organization of eighteenth-century shops.Wikimedia Commons

Aspirin. It’s inevitable.

When asked what medicine they’d want most if they lived in the eighteenth century, the visitors will struggle in silence for few moments. Then, someone will offer, “Aspirin?” Sometimes it’s delivered with a note of authority, on the mistaken notion that aspirin is derived from Native American remedies: “Aspirin.” I modulate my answer depending on the tone of the question. If the mood feels right, especially if the speaker answers with a note of condescension, I’ve been known to reply, “Do you know anyone who’s died of a mild headache?”

I work as an interpreter in the apothecary shop at the largest living history museum in the US.

If visitors leave with new knowledge, I’m satisfied. Another hundred people will remember the next time they make a meringue that cream of tartar is a laxative. But what I really want them to come away with is an idea. I want visitors to understand that our eighteenth-century forbears weren’t stupid. In the absence of key pieces of information—for examples, germ theory—they developed a model of the body, health, and healing that was fundamentally logical. Some treatments worked, and many didn’t, but there was a method to the apparent madness.

Engraving from Hohberg

This seventeenth-century engraving shows medicines being compounded and dispensed. Women were not licensed as apothecaries in the eighteenth century, but evidence suggests that in England, at least, they sometimes assisted husbands and fathers, despite not being licensed.Wolfgang Helmhard Hohberg’s Georgica Curiosa Aucta (1697) via Wellcome Images


Most visitors are mildly alarmed to learn that there was nothing available for mild, systemic pain relief in the eighteenth century. You’d have to come back next century for aspirin. Potent pain management was available via opium latex, often mixed with wine and brandy to make laudanum. In the eighteenth century, small amounts were used as a narcotic, a sedative, a cough suppressant, or to stop up the bowels, but not for headaches.

There were headache treatments, however. Colonial medical practitioners recognized multiple types of headaches based on the perceived cause, each with its own constellation of solutions. As is often the case, the simplest solutions were often effective. For a headache caused by sinus pressure, for example, the treatment was to induce sneezing with powered tobacco or pepper. Some good, hard sneezing would help expel mucus from the sinuses, thus relieving the pressure. For “nervous headaches”—what we call stress or tension headaches—I uncork a small, clear bottle and invite visitors to sniff the contents and guess what the clear liquid inside could be.

With enough coaxing, someone will recognize it as lavender oil. While eighteenth-century sufferers rubbed it on their temples, those with jangling nerves today can simply smell it—we don’t understand the exact mechanism, but lavender oil has been shown to soothe the nervous system. As a final example, and to introduce the idea that the line between food and medicine was less distinct two hundred years ago, I explain the uses of coffee in treating migraines and the headaches induced after a “debauch of hard liquors.” Caffeine is still used to treat migraines because it helps constrict blood vessels in the head, which can reduce pressure on the brain.

But if your biggest medical concern in the eighteenth century was a headache, you were lucky. Eighteenth-century medical practitioners faced menaces like cholera, dysentery, measles, mumps, rubella, smallpox, syphilis, typhus, typhoid, tuberculosis, and yellow fever. Here are a few.


photograph of cinchona bark

The bark of the cinchona tree, called Peruvian bark or Jesuits bark, was an important addition to the European pharmacopeia.Wikimedia Commons

In discussing larger threats, I generally choose to focus on an illness that many visitors have heard of before, and for which a treatment was available. The “intermittent fever” also gives visitors a glimpse of one of the difficulties of studying the history of medicine–vague and often multiple names for a single condition. Intermittent fever was called such because of a particular symptom that made it easier to identify among a host of other fevers–sufferers experienced not only the usual fever, chills, and fatigue, but also paroxysms: cycles of intense chills followed by fever and sweating. Severe cases could result in anemia, jaundice, convulsions, and death.


After describing the symptoms to guests, I mention that the disease tended to afflict those living in swampy, hot, low-lying areas—such as Williamsburg. Older visitors often put it together—intermittent fever is what we call malaria. And typically, they know the original treatment for malaria was quinine.

It’s one of the times I can say, “We have that!” rather than, “Give us another hundred years.” I turn to the rows of bottles on the shelf behind me—not the eighteenth-century original apothecary jars that line the walls, but a little army of glass bottles, corked and capped with leather. The one I’m looking for is easy to find—a deep red liquid in a clear glass bottle. As I set it on the front counter, I introduce the contents: “Tincture of Peruvian bark.” I tend to add, “This is something I would have in my eighteenth-century medical cabinet.” Walking to the rear wall, I pull open a drawer and remove a wooden container. I lift the lid to reveal chunks of an unremarkable-looking bark. I explain that the bark comes from the cinchona tree, and, as undistinguished as it looks, it was one of the major medical advances of the seventeenth century.

Also called Jesuits’ bark, cinchona was used as a fever-reducer by native peoples in South America before being exported by the Jesuits to Europe. Its efficacy in fighting fevers soon made it a staple in English medical practice. While eighteenth-century apothecaries were ignorant of quinine, which would not be isolated and named until the 1810s, they were nonetheless prescribing it effectively.

The rings and dark dots are the result of infection by Plasmodium falciparum, one of the strains of protozoa that cause malaria.Wikimedia Commons

I make a point of explaining to visitors that quinine does not act like modern antibiotics do in killing off infections directly. Malaria is neither bacterial nor viral, but protozoan. Quinine (and more modern drugs derived from it and increasingly from Chinese Artemisia) interrupts the reproductive cycle of the malaria protozoa, halting the waves of offspring that burst forth from infected red blood cells. The protozoa, now rendered impotent, hole up in the sufferer’s liver, often swarming forth later in life in another breeding bid. So technically, once infected, you’ll always have malaria, but can suppress the symptoms.

Peruvian bark was used to treat a wide range of fevers, but it was not the only treatment. In certain instances of fever, it was used in conjunction with bloodletting. Bloodletting is a practice I’m always eager to explain, because it is so revealing of just how much our understanding of the body has changed in two centuries. Plus it freaks people out.

Fevers: A Note on Phlebotomy


Bloodletting or phlebotomy, dates back to antiquity. In the humoral theory of the body promulgated by Greco-Roman physicians, removing blood promoted health by balancing the humors, or fluids, of the body. This theory prevailed from roughly the fourth through the seventeenth centuries. Medical theorists gradually adopted a more mechanical understanding of the body, inspired by a renewed interest in anatomy and by experiments that explored the behavior of fluids and gases. These new theories provided an updated justification for bloodletting in particular cases.

Illustration of breathing a vein

“Breathing a Vein” by James Gilray, 1804.Wikimedia Commons

Whereas bloodletting had been a very widely applied treatment in ancient times, eighteenth-century apothecaries and physicians recommended it in more limited cases. In terms of fevers, it was to be applied only in inflammatory cases, which were associated with the blood, rather than putrid or bilious fevers, which were digestive. In Domestic Medicine, a popular late-eighteenth century home medical guide, physician William Buchan warned that “In most low, nervous, and putrid fevers … bleeding really is harmful … . Bleeding is an excellent medicine when necessary, but should never be wantonly performed.”

Eighteenth-century medical professionals believe that acute overheating often brought on inflammatory fevers. Key symptoms of inflammatory fevers were redness, swelling, pain, heat, and a fast, full pulse. Anything that promoted a rapid change in temperature, such as overexertion or unusually spicy food, could set off a chain reaction that resulted in inflammation. Drawing on mechanical theories of the body and renewed attention to the behavior of fluids, doctors complicated simple humoral explanations of disease. Blood, as a liquid, was presumed to behave as other liquids did. When heated, liquids move more rapidly; within the closed system of the human body, overheated blood coursed too rapidly through the body, generating friction. This friction in turn generated more heat and suppressed the expression of perspiration and urine, which compromised the body’s natural means for expelling illness. Removing a small quantity of blood, doctors reasoned, would relieve some of the pressure and friction in the circulatory system and allow the body to regulate itself back to health.

Picking up the lancet, I roll up my sleeve and gesture to the bend of my elbow, where blue veins are faintly visible through my skin. Generally, I explain, blood was let through these veins by venisection, where the lancet—a small pointed blade that folds neatly into its wooden handle like a tiny Swiss Army knife—is used to make a small incision below a fillet—a looped bandage tightened on the upper arm to control blood flow. The process is akin to blood donation today, except that the blood removed will be discarded. Apothecaries and physicians, striving to be systematic and scientific, often caught the escaping blood in a bleeding bowl—a handled dish engraved with lines indicating the volume of the contents in ounces. The volume of blood removed, Buchan cautioned, “must be in proportion to the strength of the patient and the violence of the disease.” Generally, a single bloodletting sufficed, but if symptoms persisted, repeated bloodlettings might be advised.

Visitors are generally incredulous that the procedure was fairly commonplace, and that people did it in their homes without the supervision of a medical professional. Bloodletting was sometimes recommended to promote menstruation or encourage the production of fresh blood. Both published medical writings and private papers suggest that folk traditions of bloodletting for a variety of reasons persisted throughout the eighteenth century.


Modern guests question both the safety and the efficacy of bloodletting. It terms of safety, it was generally a low-risk procedure; one function of bleeding was to push pathogens out of the body, thus limiting the risk of blood-borne infections. Routine bloodletting was typically limited to six or eight ounces of blood. By comparison, blood donors today give sixteen ounces. The human body is actually fairly resilient and can withstand substantial blood loss, so even in acute cases where blood was repeatedly let, exsanguination was unlikely to be the cause of death. One famous case visitors sometimes bring up is the death of George Washington in December 1799. While it is difficult to know the circumstances precisely, Dr. David Morens with the National Institutes of Health argues that the first President was afflicted with acute bacterial epiglottitis. The epiglottis is the small flap that prevents food from entering the airway or air from entering the stomach; when it becomes infected it swells, making eating, drinking, and breathing increasingly difficult, and eventually impossible. According to notes taken by the trio of physicians who treated Washington, he endured four bloodlettings in twelve hours, removing a total of 80 ounces of blood—the limit of what was survivable. This aggressive treatment presaged the “heroic” medicine of the nineteenth century and was far out of line with the recommendations of earlier physicians such as Buchan. Even so, Morens suspects that asphyxiation, not bloodletting, was cause of death.

Thus, while bloodletting probably caused few deaths, it also saved few lives. Aside from a possible placebo effect, bloodletting’s primary efficacy is in treating rare genetic blood disorders such as polycythemia (overproduction of red blood cells) and hemochromatosis (an iron overload disorder). So while the logic behind bloodletting seemed reasonable, it was due to the lack of a critical piece of information. “What actually caused most of the diseases doctors tried to treat with bloodletting?” I’ll ask. “Germs!” a visitor calls out. “Unfortunately,” I reply, “it will be another seventy-five years until the medical establishment accepts that we’re all covered in microscopic organisms that can kill us.”

The Common Cold

Most medical recommendations weren’t so seemingly bizarre, however. Eighteenth-century doctors strove to “assist Nature” in battling disease by recommending regimens—modifications of behavior, environment, and diet that were thought to promote recovery. Doctors and caretakers induced vomiting (an “upward purge”), defecation (a “downward purge”), urination, and/or sweating to help the body expel harmful substances and offered diets that were thought to help warm, cool, or strengthen the body. When visitors ask when the most commonly prescribed medicine is, we can’t give them a direct answer—the apothecaries kept track of debts and credits but not what was purchased—but we tell them the most common category of medicine we stocked was a laxative. Keeping one’s digestion regular was a priority in the eighteenth century.

Photo of Ebers Papyrus

The common cold has been with humanity for a very long time: it was described as far back as 1,550 BCE, in the Egyptian medical text known as the Ebers Papyrus.Wikimedia Commons

Visitors are often surprised to hear that they unwittingly follow regimens themselves, often for the same common ailments that laid low our colonial and revolutionary forbears. The example I typically use is the common cold, for which there is and never has been, alas, a cure. Looking to the row of children typically pressed up against the counter, I ask, “When you’re sick and can’t go to school, do you get more rest, or more exercise?” “Rest,” they answer in chorus. “And where do you rest?” “In bed.” “And what do you eat a lot of when you’re sick?” “Soup” and “juice” are the usual answers. “You’re behaving much as you would have two hundred and fifty years ago!” I tell them. “Doctors recommended resting someplace warm and dry and eating foods that were light and easy to digest—including broths and soups.”

Visitors are fascinated and often charmed to hear that the treatment of colds has essentially stayed the same. “When you take medicine for your cold,” I continue, “does it make you feel better or make your cold go away?” Most people are dumbfounded when they consider that the majority of medicine in the eighteenth century and today are to alleviate symptoms. Then as now, individuals and households selected treatments for stuffy noses, coughs, and fevers.



While the treatment of disease has aspects both foreign and familiar, our distance from our forbears truly comes across in the comparatively primitive levels of surgery and midwifery. Because the squeamishness of guests varies widely, and because interpreters are discouraged from inducing nausea or fainting, we must proceed cautiously.

Surgery, visitors are shocked to hear, was not a prestigious profession until recently. In the eighteenth century, any physical undertaking for medical purposes was surgery—bandaging, brushing teeth, bloodletting. While separate in England, in the colonies apothecaries often took on surgical duties; low population density generally prevented specialization outside of large cities. In England, surgeons shared a guild (professional organization) with barbers, who pulled teeth and let blood as well as grooming and styling hair. A surgeon’s purview was more expansive—they set broken bones, amputated extremities when necessary, and removed surface tumors, requiring greater knowledge of anatomy.

Simple breaks could be set manually, as they are today. I often use myself as an example—I have an approximately fifteen-degree angle in my wrist from a bad fall several years ago. I explain that my wrist was set manually, with no pain management, very much as it might have been in the eighteenth century. (You know you’re a historian when that’s what you’re thinking on the gurney as a doctor jerks your bones back into alignment.)

engraving of splints

Before plaster casts were developed in the nineteenth century, broken bones could only be splinted. This engraving shows more elaborate splints for broken legs.Wellcome Images

Two factors limited the scope of surgical operations in the eighteenth century. The first was the lack of antisepsis; with no knowledge of germ theory and thus little control for infections surgeons avoided guts and kept operations as simple and efficient as possible. The second was pain.

A visitor always asks, “What did they do for pain?” Upon being told, “Nothing,” they blanch and then argue.


“What about opium?”

“Opium makes you vomit, and you’re restrained during operations and often on your back. You wouldn’t want to choke to death during your surgery.”

“They had to have done SOMETHING! A few shots of whiskey at least.”

While we can’t be sure what people did at home or while waiting for the doctor to arrive, doctors opposed the consumption of spirits before surgery because of increased bleeding. Occasionally, a visitor will ask if patients were given a thump on the head to make them lose consciousness.

“Well, the pain will probably wake you up anyhow,” I point out, “and now you have a head injury as well as an amputation to deal with.”


Generally, amputations lasted less then five minutes—minimizing the risk of infection and the chances of the patient going into shock from blood loss and pain. Limbs weren’t simply lopped off, however. Surgeons could tie off large blood vessels to reduce blood loss, and the surgical kit we display shows the specialized knives, saws, and muscle retractors employed by surgeons to make closed stumps around the severed bone.

Removing troublesome tumors was another challenge surgeons faced, commonly from breast cancer. This surprises some visitors, who tend to think of cancer as modern disease. I’ve even had a visitor insist that there couldn’t have been cancer two hundred years ago, when there were no chemical pesticides or preservatives. I informed him that cancer can also arise from naturally occurring mutations or malfunctions in cells—it even showed up in dinosaurs. Mastectomies have been performed for thousands of years. Because there was no means of targeting and controlling tumors, aggressive growth sometimes cause ulcerations through the skin, causing immense pain and generating a foul smell. Medicines such as tincture of myrrh were available to clean the ulcers and reduce the smell but did nothing to limit the cancer’s growth.

When ulceration made the pain unbearable or the tumor’s size interfered with everyday activities, sufferers resorted to surgery. Surgeons sought to remove the entire tumor, believing that if the cancer were not rooted out entirely, it would strike inward where they could not treat it. They were half right; cancer is prone to reappearing elsewhere in the body. Unfortunately, the removal of tumors triggers this—tumors secrete hormones that prevent the proliferation of cancer cells in other areas of the body. Removing tumors unleashes dormant cancer cells that have been distributed throughout the body. Without antisepsis and anesthesia, surgeons could not follow cancer inward.


Childbirth was one mystery partially penetrated in the eighteenth century. Prominent British physicians turned their attention to the anatomy and physiology of fetal development and conducted dissections—perhaps made possible by trade in freshly murdered cadavers in major British cities.

Smellie illustration

Illustration of fetal development in William Smellie’s Treatise on the Theory and Practice of Midwifery.Wellcome Images

William Smellie, a Scottish physician, produced some of the most accurate illustrations and descriptions of birth then available. Smellie’s Treatise on the Theory and Practice of Midwifery promoted the presence of male doctors into the traditionally sex-segregated birthing room. European medical schools began offering lecture series in midwifery leading to a certificate. The vast majority of women, especially in rural areas, continued to be delivered by traditional female midwives, but man-midwives were newly equipped to handle rare emergencies in obstructed delivery. Obstetrical forceps became more widely available over the course of the eighteenth century, though they were still cause for alarm; Smellie recommended that “operators” carry the disarticulated forcep blades in the side-pockets, arrange himself under a sheet, and only then “take out and dispose the blades on each side of the patient; by which means, he will often be able to deliver with the forceps, without their being perceived by the woman herself, or any other of the assistants.”


You can read more about Smellie’s inventions and early modern birthing devices in Brandy Shillace’s Appendix article “Mother Machine: An Uncanny Valley in the Eighteenth Century.”

In the shop, we rarely talk about the other equipment male doctors carried, for fear of upsetting visitors or creating controversy. Men continued to carry the “destructive instruments” long used to extract fetuses in order to save the mother. With forceps man-midwifery moved in the direction of delivery over dismemberment, but it remained an inescapable task before caesarean sections could be performed safely. Despite this avoidance, it periodically pops up, and forces me as the interpreter to rely on innuendo. One particularly discomfiting instance involved an eleven-year-old girl who asked about babies getting stuck during delivery. After explaining how forceps were used, she asked, “What if that didn’t work?” The best I could come up with was, “Then doctors had to get the baby out by any means necessary so the woman wouldn’t die.” She sensed my evasion and pressed on—“How did they do that?” Unwilling to explain how doctors used scissors and hooks in front of a group including children, I turned a despairing gaze on her mother. Fortunately, she sensed my panic and ushered her daughter outside; what explanation she offered, I do not know.

Engraving of instruments

Examples of some the “destructive instruments” man-midwives carried.Wellcome Images

Most women, fortunately, experienced uncomplicated deliveries and did not require the services of a man-midwife. Birth was not quite so fraught with peril as many visitors believe. While I’ve had one visitor inform me that all women died in childbirth, human reproduction generally works quite well. American colonists enjoyed a remarkably high birthrate. While there were regional variations, maternal mortality was probably about two percent—roughly ten times the maternal mortality rate in the United States (which lags significantly behind other developed countries). Repeated childbearing compounded these risks; approximately 1 in 12 women died as a result of childbearing over the course of their lives. Childbirth was a leading cause of death for women between puberty and menopause.

Improvements in antisepsis, prenatal care, fetal and maternal monitoring, and family planning over the past two centuries have pulled birth and death further apart. Fear of death altered how parents related to infants and children, how couples faced childbearing, and reproductive strategies. While this fear persists today, it is far more contained than it was two centuries ago.


Americans today live in a world of medical privilege unimaginable to their colonial forbears. It’s not because we are smarter or better than we were two hundred and fifty years ago. We are the beneficiaries of a series of innovations that have fundamentally altered how we conceptualize the body and reduced once-common threats. Guests in the Apothecary Shop today think of headaches as their most frequent medical problem because so many pressing diseases have been taken off the table.


From this privileged perspective, it’s all too easy to look down on those who believed in bloodletting or resorted to amputation for broken limbs. But the drive to do something to treat illness, to seek explanations for disease as a means of control, to strive to hold off death—these impulses haven’t changed.

As I often tell visitors—give it two hundred and fifty years, and we’ll look stupid too.

>Teia neural da esquizofrenia (FAPESP)


Revista Pesquisa FAPESP – Pesquisadores norte-americanos deram um passo importante para identificar as causas biológicas da esquizofrenia, conjunto de transtornos mentais graves que atingem cerca de 60 milhões de pessoas no mundo – por volta de 1,8 milhão no Brasil – e se caracterizam por distanciamento emocional da realidade, pensamento desordenado, crenças falsas (delírios) e ilusões (alucinações) visuais ou auditivas.

Alguns desses sinais são semelhantes aos apresentados pelo jovem Wellington Menezes de Oliveira, de 23 anos, que no início de abril matou 12 crianças em uma escola no bairro do Realengo, no Rio de Janeiro, antes de se suicidar.

A equipe coordenada pelo neurocientista Fred Gage, do Instituto Salk de Estudos Biológicos, na Califórnia, conseguiu transformar células da pele de pessoas com esquizofrenia em células mais imaturas e versáteis. Chamadas de células-tronco de pluripotência induzida (iPS, na sigla em inglês), essas células foram depois convertidas em neurônios, uma das variedades de células do tecido cerebral. O estudo foi publicado nesta quinta-feira no site da revista Nature.

Essa mudança forçada de função gerou o que os pesquisadores acreditam ser cópias fiéis, ao menos do ponto de vista genético, das células do cérebro de quem tem esquizofrenia, que, por óbvios motivos éticos, antes só podiam ser analisadas depois da morte.

Como são geneticamente idênticos às células cerebrais de quem desenvolveu esquizofrenia, esses neurônios fabricados em laboratório são importantes para compreender a enfermidade, que tem importante componente genético, porque permite aos pesquisadores desprezar a influência de fatores ambientais, como o uso de medicamentos ou o contexto social em que as pessoas vivem.

“Não se sabe quanto o ambiente contribui para a doença. Mas, ao fazer esses neurônios crescerem em laboratório, podemos eliminar o ambiente da equação e começar a focar nos problemas biológicos”, disse Kristen Brennand, pesquisadora do grupo de Gage e primeira autora do artigo.

Segundo Gage, é a primeira vez que se consegue criar, a partir de células de seres humanos vivos, um modelo experimental de uma doença mental complexa.

“Esse modelo não apenas nos dá a oportunidade de olhar para neurônios vivos de pacientes com esquizofrenia e de pessoas saudáveis, como também deve permitir entender melhor os mecanismos da doença e avaliar medicamentos que podem revertê-la”, disse o cientista que há alguns anos demonstrou que o cérebro adulto continua a produzir neurônios.

Depois de converter em laboratório células da pele em neurônios, Brennand realizou testes para verificar se eles se comportavam de fato como os neurônios originais e eram capazes de transmitir informação de uma célula a outra. As células cerebrais obtidas a partir de células da pele (fibroblastos) funcionavam, sim, como neurônios. “Em vários sentidos, os neurônios ‘esquizofrênicos’ são indistintos dos saudáveis”, disse.

Mas há diferenças. A pesquisadora notou que os novos neurônios de quem tinha esquizofrenia apresentavam menos ramificações do que os das pessoas saudáveis. Essas ramificações são importantes porque permitem a comunicação de uma célula cerebral com outra – e geralmente são encontradas em menor número em estudos feitos com modelo animal da doença e em análises de neurônios extraídos após a morte de pacientes com esquizofrenia.

Nos neurônios dos esquizofrênicos, a atividade genética diferiu daquela observada nas pessoas sem a doença. Os autores do estudo viram que o nível de ativação de 596 genes era desigual nos dois grupos: 271 genes eram mais ativos nas pessoas com esquizofrenia – e 325 menos expressos – do que nas pessoas sem o problema.

Em um estágio seguinte, Brennand deixou os fibroblastos convertidos em neurônios em cinco soluções diferentes, cada uma contendo um dos cinco medicamentos mais usados para tratar esquizofrenia – os antipsicóticos clozapina, loxapina, olanzapina, risperidona e tioridazina.

Dos cinco, apenas a loxapina foi capaz de reverter o efeito da ativação anormal dos genes e permitir o crescimento de mais ramificações nos neurônios. Esses resultados, porém, não indicam que os outros quatro compostos não sejam eficientes. “A otimização da concentração e do tempo de administração pode aumentar os efeitos das outras medicações antipsicóticas”, escreveram os pesquisadores.

“Esses medicamentos estão fazendo mais do que achávamos que fossem capazes de fazer. Pela primeira vez temos um modelo que permite estudar como os antipsicóticos agem em neurônios vivos e geneticamente idênticos aos de paciente”, disse a pesquisadora. Isso é importante porque torna possível comparar os sinais da evolução clínica da doença com os efeitos farmacológicos.

“Por muito tempo as doenças mentais foram vistas como um problema social ou ambiental, e as pessoas achavam que os pacientes poderiam superá-las caso se esforçassem. Estamos mostrando que algumas disfunções biológicas reais nos neurônios são independentes do ambiente”, disse Gage.

O artigo Modelling schizophrenia using human induced pluripotent stem cells (doi:10.1038/nature09915), de Fred Gage e outros, pode ser lido por assinantes da Nature em

>Loucura artística – Como a sétima arte retrata os distúrbios mentais (FAPESP)


Alexandre Agabiti Fernandez
Edição Impressa – Fevereiro 2011

Loucura de Dalí em Quando fala o coração

O cinema se presta, mais do que qualquer outra forma de arte, à representação de transtornos mentais. Paranoicos, psicóticos e outros transtornados fascinam ou perturbam o espectador porque a loucura interrompe a ordem imanente do mundo e as modalidades habituais de percepção deste. Cinema e loucura – Conhecendo os transtornos mentais através dos filmes (Artmed), de J. Landeira-Fernandez e Elie Cheniaux, é a primeira obra publicada entre nós a classificar sistematicamente os distúrbios mentais de personagens cinematográficos. Cada capítulo descreve os aspectos clínicos de um determinado transtorno mental e, em seguida, exemplos cinematográficos do mesmo transtorno são apresentados e comentados. Os autores discutem um total de 184 filmes, muitos deles bastante conhecidos. “O livro é uma ferramenta acadêmica para o ensino de psicopatologia e de psiquiatria, fornecendo exemplos concretos que em sala de aula são tratados de maneira mais abstrata”, afirma J. Landeira-Fernandez, professor da Universidade Estácio de Sá (Unesa). “Usar filmes motiva o aluno e é especialmente interessante nos casos de alunos que não têm acesso a pacientes de carne e osso”, observa Elie Cheniaux, professor da Faculdade de Ciências Médicas da Universidade Estadual do Rio de Janeiro (Uerj).

A relação entre o cinema e o psiquismo é uma evidência, pois a sétima arte representa o humano sob todas as suas formas, das mais risonhas às mais sombrias. Por outro lado, o próprio dispositivo cinematográfico – a sala escura em que são projetadas imagens, com o espectador em situação de passividade relativa, de imobilidade – determina um estado regressivo artificial que remete ao sonho. Este implica sujeito que se afasta do real e é envolvido por suas imagens. No cinema, acontece algo semelhante com o espectador. A experiência do sonho, com suas associações livres, também pode ser comparada à montagem cinematográfica, que faz coexistir mundos aparentemente heterogêneos.

Além dessas analogias, convém lembrar que o cinema e a psicanálise, oriunda da psiquiatria, nasceram praticamente ao mesmo tempo, entre o fim do século XIX e o começo do seguinte, revolucionando a abordagem da realidade. Hanns Sachs, discípulo de Freud, foi um dos primeiros psicanalistas a manifestar interesse pelo cinema. Em seu seminário, Jacques Lacan, outro pioneiro da psicanálise, fez uma análise do personagem principal de O alucinado (1953), de Luis Buñuel, um célebre caso de paranoia.

“A dramaturgia se baseia no conflito. Um filme, segundo o modelo clássico, tem três atos: a introdução dos personagens, o desenvolvimento de conflitos entre eles e a resolução dos conflitos. Muitos desses conflitos são de natureza mental. Um filme com personagens ‘normais’, resolvidos e sem conflito, não despertaria o interesse do público. Mas um filme com figuras perturbadas, fora da normalidade, traz conflitos, que fazem a narrativa avançar. O personagem ‘maluco’ é mais cinematográfico. O desvio seduz; a norma, não”, argumenta Flávio Ramos Tambellini, coordenador docente da Escola de Cinema Darcy Ribeiro, no Rio.

Em Cinema e loucura, os personagens cinematográficos são encarados como casos clínicos.Farrapo humano (1945), de Billy Wilder, retrata muito bem a riqueza dos sintomas presentes no quadro de abstinência de álcool. Noivo neurótico, noiva nervosa (1977), de Woody Allen, apresenta o transtorno distímico – caracterizado por sintomas depressivos menos intensos do que os observados em um quadro depressivo típico – e também o transtorno de ansiedade generalizada.

Porém muitas vezes os transtornos mentais não estão bem representados, pois o filme não tem finalidade educativa, obedece a injunções artísticas e comerciais. “Roteiristas e cineastas não têm obrigação de ser fiéis à realidade. O cinema não tem a obrigação de ser didático. É arte, não ciência”, constata Cheniaux. Entretanto tais distorções não desautorizam a abordagem proposta pelos autores, ao contrário. Em Uma mente brilhante(2001), de Ron Howard, biografia de John Nash, matemático e Prêmio Nobel de Economia, a esquizofrenia do personagem está mal descrita. “Ele tem alucinações visuais, cinestésicas e auditivas. Está errado, pois os esquizofrênicos têm alucinações unimodais, sendo a modalidade auditiva a mais co­mum. Efetivamente, o John Nash real tinha apenas alucinações auditivas. Mesmo estando errada, a representação do sintoma já serve como exemplo negativo”, diz Landeira-Fernandez.

Em outros casos, o personagem tem um comportamento que não se encaixa em nenhuma categoria diag­nóstica. Frequentemente, essa “loucura” reflete o senso comum, é muito diferente dos sintomas de um doente mental real. O livro também compila filmes com estas distorções. Em Repulsa ao sexo (1965), de Roman Polanski, Carol, personagem vivida por Catherine Deneuve, tem horror à penetração e apresenta uma série de comportamentos estranhos. Qual transtorno mental teria estas características? Os distúrbios de Carol não se enquadram nas categorias descritas pelo Manual diagnóstico e estatístico de transtornos mentais (DSM-IV-TR), que orientou os autores.

Cena de Repúdio ao sexo

Os problemas de diagnóstico, contudo, estão longe de ser uma especificidade do cinema. “Na medicina, as doenças são definidas a partir de suas causas. Mas na psiquiatria as categorias são descritas apenas pelos sintomas e isso é bastante criticável. Frequentemente, um mesmo paciente preenche critérios diagnósticos para mais de uma categoria nosológica ao mesmo tempo. Fica difícil acreditar que ele tenha três ou quatro doenças psiquiátricas ao mesmo tempo. É algo até certo ponto arbitrário”, afirma Cheniaux.

Nas primeiras décadas do século passado, os “loucos” estavam geralmente confinados ao gênero fantástico e eram, em geral, criminosos. Com O gabinete do doutor Caligari (1919), clássico do expressionismo alemão, de Robert Wiene, a loucura entra nas modalidades de representação cinematográfica. Como em outros filmes expressionistas, os cenários fortemente estilizados e a gestualidade brusca dos atores traduzem simbolicamente a mentalidade dos personagens e seus estados de alma. Caligari é um médico louco que hipnotiza César, seu assistente, para que ele cometa crimes, afirmando uma vontade de poder paranoica. Outra figura perversa e inteligente desta época é o personagem central deDoutor Mabuse (1922), de Fritz Lang. Trata-se de um psiquiatra que também recorre à hipnose para manipular as pessoas e cometer seus crimes. Mabuse é devorado pelo desejo de governar por meio do dinheiro, enquanto a sede de poder de Caligari é abstrata. A loucura de Mabuse e a passividade mórbida de suas vítimas apontam para a decadência da sociedade alemã da época e para o caos que então grassava no país.

Outro filme de Lang, M – O vampiro de Dusseldorf (1931), se interessa de maneira mais realista pela psicologia dos personagens. A figura central é um assassino de meninas, que, entretanto, é mostrado com humanidade em seu horror. Mas a sociedade não é melhor: diante da incapacidade da polícia em prendê-lo, ele é “julgado” por outros delinquentes, prefigurando o que iria acontecer na Alemanha em poucos meses com a chegada dos nazistas ao poder.

A partir dos anos 1940, a psicanálise ganha espaço nos meios de comunicação. Surgem osthrillers psicanalíticos, que utilizam o arsenal da psicanálise de maneira rústica e ingênua. O protótipo destes filmes é Quando fala o coração (1945), de Alfred Hitchcock. Constance (Ingrid Bergman) é uma jovem psiquiatra de um asilo que se apaixona pelo novo diretor. Mas ela logo se dá conta de que o homem que ama (Gregory Peck) é um doente mental que se faz passar pelo doutor Edwards. A partir dos sonhos do doente e depois de uma sessão de análise, Constance descobre que ele perdera a memória e com­preende por que o doente assumira a culpa por um crime que não cometera: ele testemunhara a morte do verdadeiro Edwards, assassinado pelo ex-diretor do asilo, assim como ele mesmo, em uma brincadeira quando era criança, empurrara o irmão menor para a morte. Além da angústia diante da loucura, o filme mostra a angústia da loucura, figurando o medo do personagem por meio de sonhos (desenhados por Salvador Dalí) que revelam um mundo cheio de alucinações e símbolos pretensamente produzidos pelo inconsciente. Neste e em outros filmes do período, a psicanálise é reduzida a um método capaz de resolver obscuros conflitos por meio do deciframento de um conjunto de signos geralmente claríssimos.

A partir dos anos 1950, sob o impacto dos horrores da Segunda Guerra Mundial, tem início o questionamento da reclusão do doente. Ao mesmo tempo, surgem novos psicofármacos, que provocam graves efeitos colaterais, levando muitos pacientes a recusar o tratamento. Como reação à psiquiatria da época, aparece a antipsiquiatria, que ganhou vulto nos anos 1960, no auge da contracultura. Alguns filmes retratam bem este momento, como Family life (1971), de Ken Loach; Uma mulher sob influência (1974), de John Cassavetes, e Um estranho no ninho (1975), de Milos Forman, criticando uma sociedade que prefere confinar os doentes em vez de ajudá-los a mitigar seu sofrimento, oferecendo como tratamento apenas a camisa de força, choques elétricos e drogas.

Estes filmes afirmam uma nova visão do cinema sobre a loucura, mais preocupados com o peso da sociedade sobre os indivíduos. Alguns deles interrogam a “loucura” desta sociedade, da família, levantando a questão da normalidade.

O grande precursor desta vertente é Ingmar Bergman, que fez da loucura um de seus temas obsessivos. Apesar das transformações na representação da loucura pelo cinema, a imensa maioria dos filmes continua a banalizar a loucura, com velhos clichês que fazem dos doentes mentais criminosos de filme policial ou abobalhados de comédia.

>O composto antiesquizofrenia (O Globo, JC)

JC e-mail 4196, de 09 de Fevereiro de 2011.

Substância de plantas e frutas se une a células-tronco para tratar doenças mentais

Uma substância encontrada em plantas e frutas como o maracujá, a laranja e o limão pode ser a chave para o tratamento de transtornos mentais como a esquizofrenia, que afeta 1% da população mundial.

O primeiro passo para essa terapia seria um estudo publicado por oito pesquisadores brasileiros na próxima edição da revista “Stem cells and development”, uma das principais do mundo na área de células-tronco.

A equipe, coordenada pelo Instituto de Ciências Biomédicas da UFRJ, é a primeira a estudar o efeito de flavonoides – um composto fartamente encontrado na natureza – em células-tronco embrionárias ou reprogramadas. O grupo não almejava o combate de doenças psíquicas, mas já avalia que esta poderia ser uma aplicação de seu trabalho.

Uma série de pesquisas já havia identificado os efeitos antioxidantes dos flavonoides. Trata-se de uma característica benéfica, que reduz o risco de diversas doenças e até retarda o envelhecimento.

– É um composto estudado há muito tempo. Já se descreveu sua ação hormonal, anti-hemorrágica, anticâncer – lembra Stevens Rehen, diretor do Laboratório Nacional de Células-Tronco Embrionárias. – O flavonoide também está presente em alimentos processados, como chá e vinho. Ainda assim, nunca haviam experimentado o seu efeito sobre o metabolismo de células-tronco.

Rehen, então, resolveu incluir a substância em sua pesquisa. E o fez de duas formas. A primeira, com células-tronco embrionárias, que têm o potencial de se transformar em diversos tipos. Para isso, são diferenciadas em laboratório, de modo que ocupem adequadamente o tecido onde são necessárias.

A segunda forma, e a mais importante para ele, é com células reprogramadas.

– Extraímos célula da pele de indivíduos adultos, reprogramamos este material e transformamos em neurônios- explica Rehen.

Aí entra o flavonoide. O composto, retirado da catingueira – uma planta típica do Nordeste semiárido -, impediu a morte celular e praticamente triplicou o número de neurônios gerado pelas células.

– Podemos dizer que o flavonóide deixa a célula-tronco mais propensa a se transformar em um neurônio – comemora Rehen. – Para haver essa conversão, a célula precisa ter acesso a uma substância chamada ácido retinoico. Chegar a ela exige um receptor. E o flavonóide aumenta justamente o número desses receptores. Como a célula reprogramada vem da pele do próprio paciente, será possível criarmos uma medicina individualizada.

Uma substância que, como o flavonoide, é um antioxidante e favorece a formação de neurônios, poderia ser usada para aumentar a memória de um cérebro já formado. Também reduziria a possibilidade de qualquer transtorno que prejudicasse o desenvolvimento daquele órgão. Essas utilidades, no entanto, ainda dependem de novos estudos. Mas a prioridade da equipe é outra: testar o componente natural no combate a doenças mentais. Algumas enfermidades, como a esquizofrenia, destroem a via que liga
o ácido retinoico às células. O flavonoide poderia reparar essa ligação, facilitando a produção de neurônios – e, assim, combatendo os sintomas característicos daquele transtorno.

Para isso, no entanto, é preciso conhecer melhor o material que protagoniza esse tratamento. A equipe de Rehen prepara-se para estudar os efeitos antioxidantes do flavonoide sobre neurônios reprogramados de pacientes com transtornos mentais.

– O desenvolvimento da esquizofrenia tem como característica disfunções no sistema antioxidante – lembra o pesquisador. – Portanto, ao estudarmos as propriedades desse
composto encontrado em frutas e plantas, estamos nos informando sobre como podemos usá-lo para combater os transtornos mentais.

O estudo foi realizado com camundongos, a partir de células embrionárias e reprogramadas daquele animal. Nos últimos seis meses, no entanto, os pesquisadores já ensaiam o início de um levantamento semelhante com humanos.
(Renato Grandelle)
(O Globo, 9/2)

>Cinema, psicoses e neurônios reprogramados (CH)

Em sua coluna de estreia, o biólogo Stevens Rehen aproveita o lançamento do filme ‘Cisne Negro’ no Brasil para falar das origens, desenvolvimento e efeitos da esquizofrenia, doença que atinge 1% da população mundial.

Por: Stevens Rehen
Publicado em 28/01/2011 | Atualizado em 28/01/2011

Natalie Portman em ‘Cisne Negro’. O filme, que estreia no Brasil no dia 4 de fevereiro, fala sobre situações que podem desencadear psicoses, transtornos mentais caracterizados por deterioração afetiva e perda do contato com a realidade. (foto: divulgação)

No próximo dia 4 de fevereiro estreia no Brasil Cisne Negro. Com seis indicações ao Oscar, o filme retrata as demandas físicas e emocionais que as bailarinas enfrentam no competitivo mundo do balé profissional.

O enredo do longa-metragem, dirigido por Darren Aronofsky, gira em torno do primeiro surto psicótico de Nina (Natalie Portman), dançarina que luta para se firmar como figura central de uma companhia de balé que ensaia uma nova versão do Lago dos Cisnes.

Cisne Negro é um retrato cinematográfico sobre situações que podem desencadear psicoses e, a reboque, suscita o interesse dos espectadores a respeito da esquizofrenia, um dos mais misteriosos transtornos mentais.

A incidência da esquizofrenia na população mundial é de 1%, com homens e mulheres igualmente afetados. Há mais pacientes esquizofrênicos do que doentes com Alzheimer ou esclerose múltipla, por exemplo.

Há mais pacientes esquizofrênicos do que doentes com Alzheimer ou esclerose múltipla

Os prejuízos sociais decorrentes do desenvolvimento da esquizofrenia são bastante significativos. A doença é caracterizada por delírios e alucinações que levam a uma deterioração afetiva e perda do contato com a realidade.

Os primeiros sintomas surgem na adolescência e começo da vida adulta. Há um forte componente genético associado à enfermidade, que, entretanto, não explica a maioria dos casos. Infecções virais durante o período perinatal, desnutrição materna e disfunções do sistema imunológico também são fatores de risco.

Atualmente, é considerada uma doença do desenvolvimento, associada à má formação do sistema nervoso. Apesar de não existir uma teoria de consenso capaz de explicar suas causas, há indícios de que o estresse oxidativo tenha papel fundamental na geração da patologia.

Entre o bem e o mal

O estresse oxidativo ocorre quando as defesas antioxidantes de nosso corpo falham em controlar as espécies reativas de oxigênio geradas pelo metabolismo normal de nossas células. Para entendermos como essa condição biológica está associada aos transtornos mentais, é preciso que conheçamos o “paradoxo do oxigênio”.

O oxigênio desempenha papéis contraditórios. É essencial para a vida e, ao mesmo tempo, pode ser tóxico. A molécula de oxigênio, formada por dois átomos, é quebrada durante a respiração, para a conversão de nutrientes em energia. Durante esse processo, subprodutos conhecidos como espécies reativas de oxigênio são gerados. Aí é que está o problema.

Estrutura do ácido ascórbico, um conhecido antioxidante. Disfunções no sistema antioxidante estão relacionadas ao desenvolvimento da esquizofrenia. (foto: Wikimedia Commons)

Espécies reativas de oxigênio são capazes de interferir em processos inflamatórios e na diferenciação de neurônios, mas estão principalmente relacionadas a modificações deletérias de macromoléculas como ácidos nucleicos, proteínas e lipídeos.

Infelizmente, em pacientes com esquizofrenia, elementos essenciais que normalmente reagem ao estresse oxidativo encontram-se comprometidos. Há relatos de disfunção do sistema antioxidante nesses indivíduos e de pequenas alterações em seus genes que reduzem a capacidade de se protegerem da ação danosa dos radicais livres.

Estudos em animais e relatos de pacientes sugerem, inclusive, que o aumento induzido nos níveis de radicais livres causa alterações cognitivas em indivíduos saudáveis e exacerbam psicoses em pacientes esquizofrênicos.

Cérebro frágil

Curiosamente, o hábito de fumar é até três vezes mais comum em pacientes esquizofrênicos do que na população em geral. Há indícios de que tal hábito seja uma tentativa inconsciente de compensar a carência de receptores para nicotina em seus cérebros. Por outro lado, o fumo reduz drasticamente os níveis de antioxidantes, comprometendo mais ainda a capacidade desses pacientes em lidar com o acúmulo de espécies reativas de oxigênio.

Devido ao alto consumo de oxigênio, o cérebro é mais vulnerável ao estresse oxidativo do que outros órgãos do corpo. Alterações de expressão gênica e de proteínas causadas por radicais livres comprometem a plasticidade neural e o funcionamento do sistema nervoso.

Já há antioxidantes que previnem ou aliviam distúrbios associados à esquizofrenia

Em concordância com essas observações, há uma relação entre a eficácia de sistemas antioxidantes e a severidade dos sintomas da esquizofrenia, o que pode levar ao desenvolvimento de novos medicamentos.

Já há, inclusive, descrições sobre antioxidantes que previnem ou aliviam distúrbios associados à doença. Sua utilização aumentaria a eficácia dos antipsicóticos, melhorando o quadro clínico de pacientes com transtornos mentais.

Múltiplo impacto

De fato, há evidências que todo o metabolismo energético esteja comprometido nessas pessoas. As mitocôndrias, organelas essenciais à respiração celular, também parecem alteradas nos pacientes esquizofrênicos.

Para a geração de energia, além de oxigênio, é necessário açúcar. Em 1919, F.H. Kooy descreveu um aumento na incidência de hiperglicemia em pacientes esquizofrênicos, sugerindo que comportamentos depressivos influenciariam os níveis de glicose no sangue.

Mais recentemente, pôde-se comprovar uma maior prevalência de diabetes com resistência à insulina nesses pacientes. Há novas pesquisas avaliando a aplicação de medicamentos antidiabéticos como co-fatores no tratamento da esquizofrenia.

As principais evidências de alterações bioquímicas dos sistemas antioxidantes associadas à esquizofrenia foram obtidas a partir de fragmentos cerebrais de pacientes já falecidos.

O estabelecimento de novos modelos de estudo, como, por exemplo, neurônios reprogramados a partir de células da pele de pacientes esquizofrênicos, deverá contribuir para um melhor entendimento sobre a influência do estresse oxidativo no desenvolvimento do sistema nervoso desses indivíduos.

Neurônios reprogramados a partir de células da pele (na foto) de pacientes esquizofrênicos podem ajudar a explicar a influência do estresse oxidativo no desenvolvimento do sistema nervoso desses indivíduos. (foto: Bruna Paulsen/LaNCE-UFRJ)

Sem revelar mais detalhes sobre o filme, o surto psicótico da bailarina Nina deve ter sido provocado por uma combinação de herança genética, abuso na infância, estresse ambiental e má alimentação.

Apesar de ainda serem necessários muitos estudos para comprovar o papel das espécies reativas de oxigênios como agente causador da esquizofrenia, cabe dizer que Nina deveria ter se preocupado um pouco mais com a dieta, optando por alimentos saudáveis, principalmente numa fase da vida de estresse ambiental tão extremo. Melhor prevenir do que remediar.

Stevens Rehen
Instituto de Ciências Biomédicas
Universidade Federal do Rio de Janeiro

>Toxoplasmosis and psychology (The Economist)

A game of cat and mouse
There is tantalising evidence that a common parasite may affect human behaviour

The Economist Newspaper | Science and Technology
Jun 3rd 2010

IF AN alien bug invaded the brains of half the population, hijacked their neurochemistry, altered the way they acted and drove some of them crazy, then you might expect a few excitable headlines to appear in the press. Yet something disturbingly like this may actually be happening without the world noticing.

Toxoplasma gondii is not an alien; it is a relative of that down-to-earth pathogen Plasmodium, the beast that causes malaria. It is common: in some parts of the world as much as 60% of the population is infected with it. And it can harm fetuses and people with AIDS, because in each case their immune systems cannot cope with it. For other people, though, the symptoms are usually no worse than a mild dose of flu. Not much for them to worry about, then. Except that there is a growing body of evidence that some of those people have their behaviour permanently changed.

One reason to suspect this is that a country’s level of Toxoplasma infection seems to be related to the level of neuroticism displayed by its population. Another is that those infected seem to have poor reaction times and are more likely to be involved in road accidents. A third is that they have short attention spans and little interest in seeking out novelty. A fourth, possibly the most worrying, is that those who suffer from schizophrenia are more likely than those who do not to have been exposed to Toxoplasma.

Nor is any of this truly surprising. For, besides humans, Toxoplasma has two normal hosts: rodents and cats. And what it does to rodents is very odd indeed.

Fatal feline attraction

Joanne Webster of Imperial College, London, has been studying Toxoplasma for years. Like Plasmodium, which cycles between mosquitoes and man, Toxoplasma cycles between its rodent and feline hosts, living out different phases of its existence in each. In cats, it resides in the wall of the small intestine and passes out of the host in its faeces. These are then picked up by rats and mice (and also by other mammal species, including humans), where they form cysts in brain, liver and muscle tissue. Eventually, if the parasites are lucky, their rodent host is eaten by a cat and the whole cycle starts again.

Unlike Plasmodium, however, which can rely on the natural behaviour of mosquitoes to spread it around, Toxoplasma’s rodent hosts have a strong aversion to helping it into its next home. Which is where, in Dr Webster’s elegant phrase, fatal feline attraction comes in. Rats and mice infected with Toxoplasma start wandering around and drawing attention to themselves—in other words, behaving in ways that will bring them to the attention of cats. They are even, Dr Webster’s work suggests, attracted to the smell of cats.

How these behavioural changes come about was, until recently, obscure. But in 2009 Glenn McConkey of the University of Leeds, in England, analysed Toxoplasma’s DNA. When he compared the results with those of other species, he discovered that two of the bug’s genes encode enzymes involved in the production of a molecule called dopamine. This molecule acts, in animals that have nervous systems, as a chemical messenger between nerve cells. It does not, however, have any known function in single-celled critters. Moreover, dopamine is particularly implicated in schizophrenia. Haloperidol, an antipsychotic drug, works by blocking dopamine receptors.

Intriguingly, Dr Webster has found that haloperidol serves to reverse fatal feline attraction in rats. This suggests the parasite is indeed interfering with the brain’s dopamine system—and thus that it might be doing the same thing in people. Dr McConkey is now making a version of Toxoplasma with the dopamine genes excised, to see if rats infected with this modified bug are protected from the fatal attraction.

Culture club

The evidence that human toxoplasmosis does more than appears at first sight is, it must be said, quite scattered. But it is intriguing and probably worth following up.

The connection with schizophrenia was originally suggested in the 1950s, but only really took off in 2003, when it was revived by Fuller Torrey of the Stanley Medical Research Institute, near Washington, DC. In collaboration with Bob Yolken of Johns Hopkins University, Dr Fuller discovered that people who suffer from schizophrenia are almost three times more likely than the general population to have antibodies to Toxoplasma.

That does not, of course, prove Toxoplasma causes schizophrenia. As every science student is taught from the beginning, correlation is not causation. It could be that schizophrenics are more susceptible to the infection, or some third, as yet unidentified variable may be involved.

Another interesting correlation has, though, been discovered by Jaroslav Flegr of Charles University in Prague. Dr Flegr has studied several aspects of the Toxoplasma question. In one case he looked at the infection rate of people involved in road accidents. Both drivers and pedestrians who had been in accidents were almost three times more likely to be infected than comparable individuals who had not been. Similar results have been found in Turkey, by Kor Yereli of Celal Bayar University, in Manisa. And Dr Flegr has found other abnormalities in infected people. These included reduced reaction times and shorter attention spans—both of which might help to explain the accident statistics—and a reduction in “novelty-seeking”.

This latter is curious. The sort of behaviour shown by rodents is, if anything, an increase in novelty-seeking. But the point is that novelty-seeking is controlled by nerve cells that respond to dopamine. Humans are dead-end hosts as far as Toxoplasma is concerned, so the exact effect will not have been honed by natural selection and may therefore be different from the one in animals that are actually useful to the parasite.

All of these suggested effects are obviously bad for the individuals involved, but some researchers go further and propose that entire societies are being altered by Toxoplasma. In 2006 Kevin Lafferty of the University of California, Santa Barbara, published a paper noting a correlation between levels of neuroticism established by national surveys in various countries and the level of Toxoplasma infection recorded in pregnant women (a group who are tested routinely). The places he looked at ranged from phlegmatic Britain, with a neuroticism score of -0.8 and a Toxoplasma infection rate of 6.6%, to hot-blooded France, which scored 1.8 and had an infection rate of 45%. Cross-Channel prejudices, then, may have an unexpected origin.

To repeat, correlation is not causation, and a lot more work would need to be done to prove the point. But it is just possible that a parasite’s desire to get eaten by a cat is shaping the cultures of the world.

>Quase ganhador

Agência FAPESP – 17/5/2010

Quase. Passou muito perto. Na próxima vez está no papo. Segundo uma pesquisa feita na Universidade de Cambridge, no Reino Unido, o cérebro do apostador contumaz reage diferentemente na hora de encarar uma derrota.

Para quem não costuma jogar, perder é algo normal e sinaliza a hora de parar. Mas para quem tem no jogo de apostas o seu vício, não é bem assim. De acordo com o estudo, o cérebro desses apostadores reage de modo muito mais intenso a ocasiões em que a vitória esteve muito próxima do que ocorre nos demais.

Essa particularidade poderia explicar por que os jogadores obstinados continuam a apostar mesmo quando estão perdendo sem parar. No estudo, os pesquisadores analisaram os cérebros de 20 apostadores por meio de ressonância magnética funcional enquanto eles jogavam em uma máquina caça-níqueis.

Os pesquisadores observaram que as partes do cérebro envolvidos no processamento de recompensas – chamadas de centros de dopamina – eram mais ativos em pessoas com problemas de apostas do que em pessoas que apostavam socialmente (dois grupos nos quais os voluntários foram divididos).

Durante o experimento, os participantes jogaram uma máquina com duas rodas e ganhavam 50 pences a cada vez que o resultado eram dois ícones iguais. Duas figuras diferentes era considerado uma derrota, mas quando o resultado ficava a um ícone de um par (antes ou depois, na sequência do movimento), o resultado era considerado um “perdeu por pouco”.

Os pesquisadores observaram que esses últimos casos ativaram os mesmos caminhos cerebrais do que as vitórias, mesmo que não houvesse recompensa monetária. Verificaram também que a reação ao resultado era muito mais forte entre os apostadores contumazes.

“Os resultados são interessantes por que sugerem que as ‘derrotas por pouco’ podem estimular uma resposta dopamínica nos jogadores mais frequentes, mesmo quando isso não resulta em um prêmio. Se esses fluxos de dopamina estão direcionando o comportamento aditivo, isso poderá ajudar a explicar por que aqueles que têm nas apostas o seu problema acham tão difícil parar de jogar”, disse Luke Clark, um dos autores do estudo, que foi publicado no Journal of Neuroscience.

O artigo Gambling severity predicts midbrain response to near-miss outcomes (DOI:10.1523/jneurosci.5758-09.2010), de Luke Clark e Henry Chase, pode ser lido por assinantes do Journal of Neuroscience em

>Imagens da loucura (Agência FAPESP)

Por Fábio Reynol – 16/3/2010

Agência FAPESP – A professora de artes Tatiana Fecchio da Cunha Gonçalves reuniu cerca de 800 imagens de doentes mentais em hospitais psiquiátricos, entre elas algumas registradas por quatro fotógrafos ao longo da segunda metade do século 20 em instituições brasileiras.

Foto: Estudo reúne ensaios fotográficos que registraram doentes mentais em instituições de tratamento ao longo da segunda metade do século 20 (reprod.: Henri Fuseli)

O trabalho foi feito para o doutorado no Instituto de Artes da Universidade Estadual de Campinas (Unicamp), para o qual contou com Bolsa da FAPESP. Intitulada “A representação do louco e da loucura nas imagens de quatro fotógrafos brasileiros do século 20: Alice Brill, Leonid Streliaev, Cláudio Edinger, Cláudia Martins”, a tese foi defendida e aprovada no fim de janeiro.

“Há um conjunto de construções e elementos formais que tomam o ‘louco’ por diverso, de outra ordem, patológico, a distância”, disse à Agência FAPESP. A inspiração para o estudo surgiu durante o mestrado, quando Tatiana deparou com retratos de doentes mentais registrados por Alice Brill e pelo artista plástico Lasar Segall. “Achei intrigante o interesse deles pelo tema”, disse.

Por meio de um levantamento histórico detalhado, Tatiana recuperou imagens e conceitos produzidos a partir do século 17, quando surgiram os primeiros espaços de internação para doentes mentais.

Segundo ela, a loucura tem sido compreendida de diferentes maneiras ao longo do tempo. No entanto, as suas representações mantiveram alguns aspectos que chegaram até os dias atuais. “É o caso do louco visto como o diferente, o outro, o que deve ser isolado”, disse Tatiana.

Esse distanciamento entre o fotógrafo e o doente chega a ser delimitado em algumas fotos por meio da presença de grades nas cenas com o enfermo atrás delas.

Também são mantidos nas representações mais recentes, segundo a pesquisa, alguns elementos antigos de tipificação da loucura, como o louco melancólico das obras do pintor alemão Albrecht Dürer, no início do século 16, e o louco introspectivo segurando a cabeça, presente na Iconologia do escritor italiano Cesare Ripa no século 17.

Outras representações ainda ressaltam a bestialidade e a agressividade, passando, segundo Tatiana, a ideia de ameaça, como se o louco possuísse uma força imensurável.

Para a autora, muitas dessas imagens, realizadas há séculos, naturalizaram uma forma de compreender o louco como diverso, em sua “carga de alteridade”, segundo ela refere, constituindo ainda no século 20 “a ideia de que o louco deve ser afastado da sociedade”, afirmou.

Tatiana não se deteve na representação artística, tendo investigado também as ilustrações que a medicina produziu para registrar a loucura. Os estudos fisionômicos e as medições de índices corporais, segundo conta, eram utilizados como elementos para diagnósticos e para traçar teorias a respeito da insanidade mental.

“Por esse motivo, a fotografia assumiu uma grande importância para a psiquiatria e para teorias que associavam fisionomias a determinados comportamentos”, disse.

Um desses estudos mais famosos é o do italiano Cesare Lombroso, que associou características e defeitos faciais a comportamentos criminosos. Nesse aspecto, Tatiana ressalta que a fotografia assumiu, pela suposta objetividade do aparato técnico, um reconhecimento importante como instrumento científico.

Reforma psiquiátrica

Na segunda parte da tese, a autora analisa a produção dos quatro fotógrafos que compõem o cerne de seu trabalho: Alice Brill, fotógrafa e artista plástica alemã que retrata o Hospital do Juquery (SP), no ano de 1950; Leonid Streliaev, repórter fotográfico que fez imagens do Hospital São Pedro (RS) em 1971; Cláudio Edinger, que também fotografou o Juquery em 1989 e 1990; e Cláudia Martins, que produziu imagens da Colônia Juliano Moreira, no Rio de Janeiro, enquanto era estudante de jornalismo, de 1997 a 1999.

O período desses ensaios corresponde às mudanças provocadas pela reforma psiquiátrica iniciada na década de 1960. Tatiana contou que o fim da Segunda Guerra Mundial trouxe questionamentos à sociedade em relação aos padrões de “normatização”, os quais eram impostos especialmente em instituições como as escolas, as prisões e os manicômios.

“Com a reforma foram questionados os tratamentos da época e a doença mental passou a ser compreendida menos como uma doença dos corpos e mais como um reflexo de dinâmicas sociais”, revelou a pesquisadora.

Paradoxalmente, a autora ainda encontrou na segunda metade do século 20 resquícios da caracterização da loucura de tempos anteriores, o que mostra, segundo ela, que a ruptura com os antigos estigmas não foi tão grande. Outra hipótese é a de que a crítica proposta pela reforma psiquiátrica ainda está em processo, o que ainda deve provocar alterações na forma visual de representação da loucura.

“O fotógrafo [do século 20] ainda não partilha o espaço do fotografado, ele não está no mesmo lugar do outro”, disse. Dentre os fotógrafos estudados há uma tentativa mais explícita de rompimento com essa postura somente no trabalho de Cláudia Martins, segundo a pesquisadora.

“Ela procurou fazer com que os pacientes participassem da construção da imagem, eram eles que escolhiam o pano de fundo do cenário, a pose que fariam na foto e se estariam ou não acompanhados por outros internos”, apontou.

O estudo também traçou as mudanças nas relações da sociedade com os doentes mentais ao longo do tempo. Em 1950, por exemplo, Alice Brill foi aconselhada por amigos a não entrar no Juquery porque estava grávida, sob a justificativa de que os loucos poderiam “influenciar” o bebê. Já as imagens de Edinger, no fim dos anos 1980, trazem um tema inédito em trabalhos desse gênero: a homossexualidade.

Uma das conclusões da autora é a desconstrução do mito da objetividade da fotografia e do fotógrafo, afirmação recorrente no advento dessa técnica. Diante da pintura, a fotografia era tida como descrição exata da realidade a ponto de garantir registros objetivos à medicina, de acordo com a pesquisa.

“Essa objetividade é aparente, a fotografia é composta de escolhas do fotógrafo: onde os objetos serão colocados, quais lentes serão usadas, qual será o cenário, entre outros”, disse. Em todo o material fotográfico analisado está presente a tensão anormalidade/diverso e normalidade/identidade ligados à representação do “louco”.

Esse aspecto foi relembrado por ela e associado às ideias do filósofo francês Michel Foucault, para quem a loucura seria o campo de exclusão social do diverso. A exclusão estaria associada ao advento das cidades, segundo Tatiana. “As cidades exigiram indivíduos muito bem comportados e isolaram quem não se enquadrava em seus padrões, como leprosos, prostitutas e loucos”, disse.

No entanto, ao contrário de outros estigmas, a loucura poderia ser aplicada a qualquer um. Por isso, foi muito usada como instrumento de poder. “Com diagnósticos subjetivos, qualquer comportamento fora dos padrões vigentes poderia ser diagnosticado como loucura”, disse Tatiana. Como exemplo, cita uma mulher internada como louca no Hospital Pedro II, no início do século passado, porque resolveu dissolver o casamento logo após a noite de núpcias.

De acordo com a orientadora de Tatiana, a professora Cláudia Valladão de Mattos, do Departamento de Artes Plásticas da Unicamp, um sinal da qualidade do trabalho foi a sua grande receptividade em instituições internacionais.

“Em países como França e Alemanha, com forte tradição artística, a pesquisa de Tatiana teve uma ótima receptividade”, disse a professora, explicando que o trabalho foi aceito em todos os eventos europeus em que se inscreveu.

“Eles têm muito interesse em conhecer dados sobre o Brasil. O material reunido por Tatiana é considerado raro e importante para a comparação com estudos similares feitos em instituições de tratamento europeias”, disse.

O interesse estrangeiro pelo trabalho ficou evidente durante os dez meses da pesquisa que Tatiana passou na Inglaterra na Wellcome Trust for the History of Medicine da University College London, período no qual contou com bolsa de doutorado com estágio no exterior da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes).

Cláudia também destaca o aspecto interdisciplinar da tese que envolveu arte, história e a medicina psiquiátrica. “A tese também é importante para a história da arte, e abre um campo enorme a ser investigado”, disse.

Tatiana pretende continuar a pesquisa por meio de um pós-doutorado. Dessa vez, quer analisar imagens de vídeo de doentes mentais. “Durante a pesquisa entrei em contato com um material muito grande que pretendo aproveitar agora estudando as imagens em movimento”, disse.