Arquivo da tag: Ética

Opinião – Pablo Acosta: Ciências comportamentais podem complementar forma tradicional de fazer política (Folha de S.Paulo)

www1.folha.uol.com.br

22.fev.2022 às 4h00


Tradicionalmente, os gestores elaboram políticas públicas tendo como base um agente econômico racional, ou seja, uma pessoa capaz de avaliar cada decisão, maximizando sua utilidade para interesse próprio. Ignoram, porém, as poderosas influências psicológicas e sociais que afetam o comportamento humano e desconsideram que pessoas são falíveis, inconstantes e emocionais: têm problemas com autocontrole, procrastinam, preferem o status quo e são seres sociais. É com base nesse agente “não tão racional” que as ciências comportamentais se apresentam para complementar a forma tradicional de fazer política.

Por exemplo: já nos aproximamos da marca de dois anos desde a declaração pela Organização Mundial da Saúde de estado de pandemia da Covid-19 em 11 de março de 2020. Foram anos desafiadores para governos, empresas e indivíduos. Mas apesar de 2021 ter apresentado sinais de recuperação, há ainda um longo e árduo caminho a ser percorrido para retornar ao menos às condições pré-pandemia. Não apenas na saúde, mas também no equilíbrio das economias, no aumento da produtividade, na retomada de empregos, na recuperação das lacunas de aprendizagem, na melhora do ambiente de negócios, no combate às mudanças climáticas, etc. Obviamente, essa não é uma tarefa simples para governos e organizações. Poderíamos encarar esses desafios de forma diferente e adaptar a maneira de fazer políticas públicas para torná-las mais eficientes e custo-efetivas, aumentando seus impactos e alcance?

A resposta é sim. O sucesso de políticas públicas depende, em parte, da tomada de decisão e da mudança de comportamentos. Por isso, focar mais nas pessoas e no contexto da tomada de decisão se torna cada vez mais imperativo. É importante considerar como pessoas se relacionam entre si e com instituições, como se portam frente às políticas e conhecer bem o ambiente em que estão inseridas.

A abordagem comportamental é científica e alia conceitos da psicologia, economia, antropologia, sociologia e neurociência. Orientada pelo contexto e baseada em evidências, concilia teoria e prática em diversos setores. Sua aplicação pode abranger uma simples mudança no ambiente da tomada de decisão (arquitetura de escolhas), um “empurrãozinho” (nudge) para influenciar a melhor decisão para o indivíduo, mantendo liberdade de escolhas, e pode ser mais ampla, visando a mudança de hábito. Para além disso, pode ser chave no enfrentamento de desafios de políticas como abandono escolar, violência doméstica e de gênero, pagamento de impostos, redução de corrupção, desastres naturais, mudanças climáticas, entre outros.

O uso de insights comportamentais em políticas públicas já não é mais novidade. Mais de uma década se passou desde a publicação (2008) do livro Nudge (“Nudge: como tomar melhores decisões sobre saúde, dinheiro e felicidade”, em português), que impulsionou o campo de forma espetacular. Conceitos da psicologia, já amplamente discutidos e aceitos por décadas, foram utilizados no contexto das decisões econômicas e, assim, a economia/ciência comportamental se consolidou.

Acompanhando a expansão e relevância do tema, o Banco Mundial, lançou em 2015 o Relatório sobre o Desenvolvimento Mundial: Mente, Sociedade e Comportamento. Em 2016, iniciou sua própria unidade comportamental, a eMBeD (Unidade Mente, Comportamento e Desenvolvimento) e tem promovido o uso sistemático de insights comportamentais em políticas e projetos de desenvolvimento e apoiado diversos países para solucionar problemas de forma rápida e escalável.

No Brasil, temos atuado na capacitação de gestores para o uso de insights comportamentais, em contribuições em pesquisas, como na Pesquisa sobre Ética e Corrupção no Serviço Público Federal (Banco Mundial e CGU) e em apoio técnico na identificação de evidências, como para informar soluções para aumentar a poupança entre a população de baixa renda. Nossos especialistas prepararam também diagnósticos comportamentais para entender por que clientes não pagam a conta em dia ou deixam de se conectar ao sistema de esgoto. Realizamos experimentos com mensagens comportamentais a fim de estimular a utilização de meios digitais de pagamentos e incentivar o pagamento de contas em dia no setor de água e saneamento. Neste último, apresentando resultados positivos com possibilidade de aumento de arrecadação a um custo baixo, já que as mensagens ressaltando consequências e reciprocidade, por exemplo, aumentaram os pagamentos em dia e a quantia total paga. Para cada mil clientes que receberam o SMS com insights comportamentais, de seis a 11 clientes a mais pagaram as contas. Para 2022, há atividades planejadas, como parte de um projeto de desenvolvimento, que usará insights comportamentais para reduzir o descarte de resíduos em sistemas de drenagem e aumentar o uso consciente de espaços públicos.

As ciências comportamentais não são a solução para os grandes desafios globais. Mas é preciso ressaltar o potencial de sua complementariedade na construção de políticas públicas. Cabe aos gestores aproveitarem esse momento de maior maturidade da área para expandirem seus conhecimentos. Vale ainda surfar na onda de ascensão de áreas complementares, como cesign e ciência de dados, para centrar o olhar no indivíduo e no contexto da decisão e, baseando-se em evidências e de maneira transparente, influenciar as escolhas e promover mudança de comportamento, de forma a aumentar o impacto das políticas públicas a fim de não só retomar as condições pré-Covid, mas melhorar ainda mais a vida e o bem-estar de todos, especialmente da população mais pobre e vulnerável.

Esta coluna foi escrita em colaboração com meus colegas do Banco Mundial Juliana Neves Soares Brescianini, analista de operações, e Luis A. Andrés, líder de programa do setor de Infraestrutura.

The Facebook whistleblower says its algorithms are dangerous. Here’s why. (MIT Technology Review)

technologyreview.com

Frances Haugen’s testimony at the Senate hearing today raised serious questions about how Facebook’s algorithms work—and echoes many findings from our previous investigation.

October 5, 2021

Karen Hao


Facebook whistleblower Frances Haugen testifies during a Senate Committee October 5. Drew Angerer/Getty Images

On Sunday night, the primary source for the Wall Street Journal’s Facebook Files, an investigative series based on internal Facebook documents, revealed her identity in an episode of 60 Minutes.

Frances Haugen, a former product manager at the company, says she came forward after she saw Facebook’s leadership repeatedly prioritize profit over safety.

Before quitting in May of this year, she combed through Facebook Workplace, the company’s internal employee social media network, and gathered a wide swath of internal reports and research in an attempt to conclusively demonstrate that Facebook had willfully chosen not to fix the problems on its platform.

Today she testified in front of the Senate on the impact of Facebook on society. She reiterated many of the findings from the internal research and implored Congress to act.

“I’m here today because I believe Facebook’s products harm children, stoke division, and weaken our democracy,” she said in her opening statement to lawmakers. “These problems are solvable. A safer, free-speech respecting, more enjoyable social media is possible. But there is one thing that I hope everyone takes away from these disclosures, it is that Facebook can change, but is clearly not going to do so on its own.”

During her testimony, Haugen particularly blamed Facebook’s algorithm and platform design decisions for many of its issues. This is a notable shift from the existing focus of policymakers on Facebook’s content policy and censorship—what does and doesn’t belong on Facebook. Many experts believe that this narrow view leads to a whack-a-mole strategy that misses the bigger picture.

“I’m a strong advocate for non-content-based solutions, because those solutions will protect the most vulnerable people in the world,” Haugen said, pointing to Facebook’s uneven ability to enforce its content policy in languages other than English.

Haugen’s testimony echoes many of the findings from an MIT Technology Review investigation published earlier this year, which drew upon dozens of interviews with Facebook executives, current and former employees, industry peers, and external experts. We pulled together the most relevant parts of our investigation and other reporting to give more context to Haugen’s testimony.

How does Facebook’s algorithm work?

Colloquially, we use the term “Facebook’s algorithm” as though there’s only one. In fact, Facebook decides how to target ads and rank content based on hundreds, perhaps thousands, of algorithms. Some of those algorithms tease out a user’s preferences and boost that kind of content up the user’s news feed. Others are for detecting specific types of bad content, like nudity, spam, or clickbait headlines, and deleting or pushing them down the feed.

All of these algorithms are known as machine-learning algorithms. As I wrote earlier this year:

Unlike traditional algorithms, which are hard-coded by engineers, machine-learning algorithms “train” on input data to learn the correlations within it. The trained algorithm, known as a machine-learning model, can then automate future decisions. An algorithm trained on ad click data, for example, might learn that women click on ads for yoga leggings more often than men. The resultant model will then serve more of those ads to women.

And because of Facebook’s enormous amounts of user data, it can

develop models that learned to infer the existence not only of broad categories like “women” and “men,” but of very fine-grained categories like “women between 25 and 34 who liked Facebook pages related to yoga,” and [target] ads to them. The finer-grained the targeting, the better the chance of a click, which would give advertisers more bang for their buck.

The same principles apply for ranking content in news feed:

Just as algorithms [can] be trained to predict who would click what ad, they [can] also be trained to predict who would like or share what post, and then give those posts more prominence. If the model determined that a person really liked dogs, for instance, friends’ posts about dogs would appear higher up on that user’s news feed.

Before Facebook began using machine-learning algorithms, teams used design tactics to increase engagement. They’d experiment with things like the color of a button or the frequency of notifications to keep users coming back to the platform. But machine-learning algorithms create a much more powerful feedback loop. Not only can they personalize what each user sees, they will also continue to evolve with a user’s shifting preferences, perpetually showing each person what will keep them most engaged.

Who runs Facebook’s algorithm?

Within Facebook, there’s no one team in charge of this content-ranking system in its entirety. Engineers develop and add their own machine-learning models into the mix, based on their team’s objectives. For example, teams focused on removing or demoting bad content, known as the integrity teams, will only train models for detecting different types of bad content.

This was a decision Facebook made early on as part of its “move fast and break things” culture. It developed an internal tool known as FBLearner Flow that made it easy for engineers without machine learning experience to develop whatever models they needed at their disposal. By one data point, it was already in use by more than a quarter of Facebook’s engineering team in 2016.

Many of the current and former Facebook employees I’ve spoken to say that this is part of why Facebook can’t seem to get a handle on what it serves up to users in the news feed. Different teams can have competing objectives, and the system has grown so complex and unwieldy that no one can keep track anymore of all of its different components.

As a result, the company’s main process for quality control is through experimentation and measurement. As I wrote:

Teams train up a new machine-learning model on FBLearner, whether to change the ranking order of posts or to better catch content that violates Facebook’s community standards (its rules on what is and isn’t allowed on the platform). Then they test the new model on a small subset of Facebook’s users to measure how it changes engagement metrics, such as the number of likes, comments, and shares, says Krishna Gade, who served as the engineering manager for news feed from 2016 to 2018.

If a model reduces engagement too much, it’s discarded. Otherwise, it’s deployed and continually monitored. On Twitter, Gade explained that his engineers would get notifications every few days when metrics such as likes or comments were down. Then they’d decipher what had caused the problem and whether any models needed retraining.

How has Facebook’s content ranking led to the spread of misinformation and hate speech?

During her testimony, Haugen repeatedly came back to the idea that Facebook’s algorithm incites misinformation, hate speech, and even ethnic violence. 

“Facebook … knows—they have admitted in public—that engagement-based ranking is dangerous without integrity and security systems but then not rolled out those integrity and security systems in most of the languages in the world,” she told the Senate today. “It is pulling families apart. And in places like Ethiopia it is literally fanning ethnic violence.”

Here’s what I’ve written about this previously:

The machine-learning models that maximize engagement also favor controversy, misinformation, and extremism: put simply, people just like outrageous stuff.

Sometimes this inflames existing political tensions. The most devastating example to date is the case of Myanmar, where viral fake news and hate speech about the Rohingya Muslim minority escalated the country’s religious conflict into a full-blown genocide. Facebook admitted in 2018, after years of downplaying its role, that it had not done enough “to help prevent our platform from being used to foment division and incite offline violence.”

As Haugen mentioned, Facebook has also known this for a while. Previous reporting has found that it’s been studying the phenomenon since at least 2016.

In an internal presentation from that year, reviewed by the Wall Street Journal, a company researcher, Monica Lee, found that Facebook was not only hosting a large number of extremist groups but also promoting them to its users: “64% of all extremist group joins are due to our recommendation tools,” the presentation said, predominantly thanks to the models behind the “Groups You Should Join” and “Discover” features.

In 2017, Chris Cox, Facebook’s longtime chief product officer, formed a new task force to understand whether maximizing user engagement on Facebook was contributing to political polarization. It found that there was indeed a correlation, and that reducing polarization would mean taking a hit on engagement. In a mid-2018 document reviewed by the Journal, the task force proposed several potential fixes, such as tweaking the recommendation algorithms to suggest a more diverse range of groups for people to join. But it acknowledged that some of the ideas were “antigrowth.” Most of the proposals didn’t move forward, and the task force disbanded.

In my own conversations, Facebook employees also corroborated these findings.

A former Facebook AI researcher who joined in 2018 says he and his team conducted “study after study” confirming the same basic idea: models that maximize engagement increase polarization. They could easily track how strongly users agreed or disagreed on different issues, what content they liked to engage with, and how their stances changed as a result. Regardless of the issue, the models learned to feed users increasingly extreme viewpoints. “Over time they measurably become more polarized,” he says.

In her testimony, Haugen also repeatedly emphasized how these phenomena are far worse in regions that don’t speak English because of Facebook’s uneven coverage of different languages.

“In the case of Ethiopia there are 100 million people and six languages. Facebook only supports two of those languages for integrity systems,” she said. “This strategy of focusing on language-specific, content-specific systems for AI to save us is doomed to fail.”

She continued: “So investing in non-content-based ways to slow the platform down not only protects our freedom of speech, it protects people’s lives.”

I explore this more in a different article from earlier this year on the limitations of large language models, or LLMs:

Despite LLMs having these linguistic deficiencies, Facebook relies heavily on them to automate its content moderation globally. When the war in Tigray[, Ethiopia] first broke out in November, [AI ethics researcher Timnit] Gebru saw the platform flounder to get a handle on the flurry of misinformation. This is emblematic of a persistent pattern that researchers have observed in content moderation. Communities that speak languages not prioritized by Silicon Valley suffer the most hostile digital environments.

Gebru noted that this isn’t where the harm ends, either. When fake news, hate speech, and even death threats aren’t moderated out, they are then scraped as training data to build the next generation of LLMs. And those models, parroting back what they’re trained on, end up regurgitating these toxic linguistic patterns on the internet.

How does Facebook’s content ranking relate to teen mental health?

One of the more shocking revelations from the Journal’s Facebook Files was Instagram’s internal research, which found that its platform is worsening mental health among teenage girls. “Thirty-two percent of teen girls said that when they felt bad about their bodies, Instagram made them feel worse,” researchers wrote in a slide presentation from March 2020.

Haugen connects this phenomenon to engagement-based ranking systems as well, which she told the Senate today “is causing teenagers to be exposed to more anorexia content.”

“If Instagram is such a positive force, have we seen a golden age of teenage mental health in the last 10 years? No, we have seen escalating rates of suicide and depression amongst teenagers,” she continued. “There’s a broad swath of research that supports the idea that the usage of social media amplifies the risk of these mental health harms.”

In my own reporting, I heard from a former AI researcher who also saw this effect extend to Facebook.

The researcher’s team…found that users with a tendency to post or engage with melancholy content—a possible sign of depression—could easily spiral into consuming increasingly negative material that risked further worsening their mental health.

But as with Haugen, the researcher found that leadership wasn’t interested in making fundamental algorithmic changes.

The team proposed tweaking the content-ranking models for these users to stop maximizing engagement alone, so they would be shown less of the depressing stuff. “The question for leadership was: Should we be optimizing for engagement if you find that somebody is in a vulnerable state of mind?” he remembers.

But anything that reduced engagement, even for reasons such as not exacerbating someone’s depression, led to a lot of hemming and hawing among leadership. With their performance reviews and salaries tied to the successful completion of projects, employees quickly learned to drop those that received pushback and continue working on those dictated from the top down….

That former employee, meanwhile, no longer lets his daughter use Facebook.

How do we fix this?

Haugen is against breaking up Facebook or repealing Section 230 of the US Communications Decency Act, which protects tech platforms from taking responsibility for the content it distributes.

Instead, she recommends carving out a more targeted exemption in Section 230 for algorithmic ranking, which she argues would “get rid of the engagement-based ranking.” She also advocates for a return to Facebook’s chronological news feed.

Ellery Roberts Biddle, a projects director at Ranking Digital Rights, a nonprofit that studies social media ranking systems and their impact on human rights, says a Section 230 carve-out would need to be vetted carefully: “I think it would have a narrow implication. I don’t think it would quite achieve what we might hope for.”

In order for such a carve-out to be actionable, she says, policymakers and the public would need to have a much greater level of transparency into how Facebook’s ad-targeting and content-ranking systems even work. “I understand Haugen’s intention—it makes sense,” she says. “But it’s tough. We haven’t actually answered the question of transparency around algorithms yet. There’s a lot more to do.”

Nonetheless, Haugen’s revelations and testimony have brought renewed attention to what many experts and Facebook employees have been saying for years: that unless Facebook changes the fundamental design of its algorithms, it will not make a meaningful dent in the platform’s issues. 

Her intervention also raises the prospect that if Facebook cannot put its own house in order, policymakers may force the issue.

“Congress can change the rules that Facebook plays by and stop the many harms it is now causing,” Haugen told the Senate. “I came forward at great personal risk because I believe we still have time to act, but we must act now.”

Inteligência Artificial e os dilemas éticos que não estamos prontos para resolver (Estadão)

politica.estadao.com.br

André Aléxis de Almeida, 4 de outubro de 2021


Durante a pandemia do novo coronavírus, vimos nascer uma série de inovações ligadas à Inteligência Artificial (IA). Um exemplo foi o projeto “IACOV-BR: Inteligência Artificial para Covid-19 no Brasil”, do Laboratório de Big Data e Análise Preditiva em Saúde da Faculdade de Saúde Pública da Universidade de São Paulo (USP), que desenvolve algoritmos de machine learning (aprendizagem de máquina) para antecipar o diagnóstico e o prognóstico da doença e é conduzido com hospitais parceiros em diversas regiões do Brasil para auxiliar médicos e gestores.

Já uma pesquisa da Universidade Federal de São Paulo (Unifesp), em parceria com a Rede D’Or e o Instituto Tecnológico de Aeronáutica (ITA), apontou, em fase piloto, ser possível identificar de forma rápida a gravidade dos casos de infecção por SARS-CoV-2 atendidos em pronto socorro lançando mão da IA para realizar a análise de diversos marcadores clínicos e de exames de sangue dos pacientes.

Esses são apenas dois – e nacionais – de uma infinidade de cases que mostram como o desenvolvimento e aprimoramento da IA pode ser benéfico para a sociedade. Temos que ressaltar, contudo, que a tecnologia é a famosa faca de dois gumes. De um lado, faz a humanidade avançar, otimiza processos, promove disrupções. De outro, cria divergências, paradoxos e traz problemas e dilemas que antes pareciam inimagináveis.

Em 2020, por exemplo, o departamento de polícia de Detroit, no Centro-Oeste dos Estados Unidos, foi processado por prender um homem negro identificado erroneamente por um software de reconhecimento facial como autor de um furto.

Ainda, um estudo publicado na revista Science em outubro de 2019 apontou que um software usado em atendimentos hospitalares nos EUA privilegiava pacientes brancos em detrimento de negros na fila de programas especiais voltados ao tratamento de doenças crônicas, como problemas renais e diabetes. A tecnologia, segundo os pesquisadores, tinha sido desenvolvida pela subsidiária de uma companhia de seguros e era utilizada no atendimento de, aproximadamente, 70 milhões de pacientes.

Mais recentemente, já em 2021, a startup russa Xsolla demitiu cerca de 150 funcionários com base em análise de big data. Dados dos colaboradores foram avaliados em ferramentas como o Jira – software que permite o monitoramento de tarefas e acompanhamento de projetos –, Gmail e o wiki corporativo Confluence, além de conversas e documentos, para classificá-los como “interessados” e “produtivos” no ambiente de trabalho remoto. Os que ficaram aquém do esperado foram desligados. Controverso, no mínimo, vez que houve a substituição de uma avaliação de resultados pelo simples monitoramento dos funcionários.

Novamente, esses são apenas alguns exemplos em um mar de diversos outros envolvendo polêmicas similares, cuja realidade demonstra que os gestores não estão preparados para lidar. O estudo “O estado da IA responsável: 2021”, produzido pela FICO em parceria com a empresa de inteligência de mercado Corinium, apontou que 65% das organizações não conseguem explicar como as decisões ou previsões dos seus modelos de IA são feitas. A pesquisa foi elaborada com base em conversas com 100 líderes de grandes empresas globais, inclusive brasileiros. Ainda, 73% dos entrevistados afirmaram estar enfrentando dificuldades para conseguir suporte executivo voltado a priorizar a ética e as práticas responsáveis de IA.

Softwares e aplicativos de Inteligência Artificial, que envolvem técnicas como big data e machine learning, não são perfeitos porque, justamente, foram programados por seres humanos. Há uma diferença, que pode até parecer sutil à primeira vista, entre ser inteligente e ser sábio, o que as máquinas, ao menos por enquanto, ainda não são. Em um mundo algorítmico, a IA responsável, pautada pela ética, deve ser o modelo de governança. Ao que tudo indica, entretanto, como demonstrou o estudo da FICO, é que tanto executivos como programadores não sabem como se guiar nesse sentido.

É aqui que entra a importância dos marcos regulatórios, que jogam luz sobre um tema, procuram prevenir conflitos e, caso estes ocorram, demonstram como os problemas devem ser solucionados.

Assim como ocorreu em relação à proteção de dados pessoais, a União Europeia busca ser protagonista e se tornar modelo global na regulação da IA. Por lá, o debate ainda é incipiente, mas já envolve pontos como a criação de uma autoridade para promover as normas de IA em cada país da União Europeia (EU). A regulação também mira o IA que potencialmente coloque em risco a segurança e os direitos fundamentais dos cidadãos, além da necessidade de uma maior transparência no uso de automações, como chatbots.

No Brasil, o Marco Legal da Inteligência Artificial (Projeto de Lei 21/2020) já está em tramitação no Congresso Nacional, para o qual o regime de urgência, que dispensa algumas formalidades regimentais, foi aprovado na Câmara dos Deputados. Além de toda a problemática envolvendo a falta de uma discussão aprofundada sobre o tema no Legislativo, o substitutivo do projeto se mostrou uma verdadeira bomba quanto à responsabilidade, trazendo que:

“(…) normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial devem, salvo disposição em contrário, se pautar na responsabilidade subjetiva, levar em consideração a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar, e como esses agentes podem demonstrar adequação às normas aplicáveis por meio de esforços razoáveis compatíveis com padrões internacionais e melhores práticas de mercado”.

Enquanto a responsabilidade objetiva depende apenas de comprovação de nexo causal, a responsabilidade subjetiva pressupõe dolo ou culpa na conduta. Significa que agentes que atuam na cadeia de desenvolvimento e operação de sistemas de IA somente responderão por eventuais danos causados por esses sistemas se for comprovado que eles desejaram o resultado danoso ou que foram negligentes, imprudentes ou imperitos. Ademais, quem são tais agentes? Não há quaisquer definições sobre quem seriam esses operadores.

Na pressa de regular, corre-se o risco de termos, assim como diversas outras leis de nosso país, uma legislação “para inglês ver”, que mais atrapalha do que ajuda; que em vez de fazer justiça, é, na verdade, injusta. Por enquanto, no Brasil, não se tem registros de casos como os trazidos no início do texto, mas, invariavelmente, haverá. É apenas questão de tempo. E quando isso ocorrer, o risco que correremos é o de termos em mãos uma legislação incompatível com os preceitos constitucionais, que não protegem o cidadão, mas o tornam ainda mais vulnerável.

*André Aléxis de Almeida é advogado, especialista em Direito Constitucional, mestre em Direito Empresarial e mentor jurídico de empresas

If DNA is like software, can we just fix the code? (MIT Technology Review)

technologyreview.com

In a race to cure his daughter, a Google programmer enters the world of hyper-personalized drugs.

Erika Check Hayden

February 26, 2020


To create atipeksen, Yu borrowed from recent biotech successes like gene therapy. Some new drugs, including cancer therapies, treat disease by directly manipulating genetic information inside a patient’s cells. Now doctors like Yu find they can alter those treatments as if they were digital programs. Change the code, reprogram the drug, and there’s a chance of treating many genetic diseases, even those as unusual as Ipek’s.

The new strategy could in theory help millions of people living with rare diseases, the vast majority of which are caused by genetic typos and have no treatment. US regulators say last year they fielded more than 80 requests to allow genetic treatments for individuals or very small groups, and that they may take steps to make tailor-made medicines easier to try. New technologies, including custom gene-editing treatments using CRISPR, are coming next.

Where it had taken decades for Ionis to perfect its drug, Yu now set a record: it took only eight months for Yu to make milasen, try it on animals, and convince the US Food and Drug Administration to let him inject it into Mila’s spine.

“I never thought we would be in a position to even contemplate trying to help these patients,” says Stanley Crooke, a biotechnology entrepreneur and founder of Ionis Pharmaceuticals, based in Carlsbad, California. “It’s an astonishing moment.”

Antisense drug

Right now, though, insurance companies won’t pay for individualized gene drugs, and no company is making them (though some plan to). Only a few patients have ever gotten them, usually after heroic feats of arm-twisting and fundraising. And it’s no mistake that programmers like Mehmet Kuzu, who works on data privacy, are among the first to pursue individualized drugs. “As computer scientists, they get it. This is all code,” says Ethan Perlstein, chief scientific officer at the Christopher and Dana Reeve Foundation.

A nonprofit, the A-T Children’s Project, funded most of the cost of designing and making Ipek’s drug. For Brad Margus, who created the foundation in 1993 after his two sons were diagnosed with A-T, the change between then and now couldn’t be more dramatic. “We’ve raised so much money, we’ve funded so much research, but it’s so frustrating that the biology just kept getting more and more complex,” he says. “Now, we’re suddenly presented with this opportunity to just fix the problem at its source.”

Ipek was only a few months old when her father began looking for a cure. A geneticist friend sent him a paper describing a possible treatment for her exact form of A-T, and Kuzu flew from Sunnyvale, California, to Los Angeles to meet the scientists behind the research. But they said no one had tried the drug in people: “We need many more years to make this happen,” they told him.

Timothy Yu, of Boston Children's Hospital
Timothy Yu, of Boston Children’s HospitalCourtesy Photo (Yu)

Kuzu didn’t have years. After he returned from Los Angeles, Margus handed him a thumb drive with a video of a talk by Yu, a doctor at Boston Children’s Hospital, who described how he planned to treat a young girl with Batten disease (a different neurodegenerative condition) in what press reports would later dub “a stunning illustration of personalized genomic medicine.” Kuzu realized Yu was using the very same gene technology the Los Angeles scientists had dismissed as a pipe dream.

That technology is called “antisense.” Inside a cell, DNA encodes information to make proteins. Between the DNA and the protein, though, come messenger molecules called RNA that ferry the gene information out of the nucleus. Think of antisense as mirror-image molecules that stick to specific RNA messages, letter for letter, blocking them from being made into proteins. It’s possible to silence a gene this way, and sometimes to overcome errors, too.

Though the first antisense drugs appeared 20 years ago, the concept achieved its first blockbuster success only in 2016. That’s when a drug called nusinersen, made by Ionis, was approved to treat children with spinal muscular atrophy, a genetic disease that would otherwise kill them by their second birthday.

Yu, a specialist in gene sequencing, had not worked with antisense before, but once he’d identified the genetic error causing Batten disease in his young patient, Mila Makovec, it became apparent to him he didn’t have to stop there. If he knew the gene error, why not create a gene drug? “All of a sudden a lightbulb went off,” Yu says. “Couldn’t one try to reverse this? It was such an appealing idea, and such a simple idea, that we basically just found ourselves unable to let that go.”

Yu admits it was bold to suggest his idea to Mila’s mother, Julia Vitarello. But he was not starting from scratch. In a demonstration of how modular biotech drugs may become, he based milasen on the same chemistry backbone as the Ionis drug, except he made Mila’s particular mutation the genetic target. Where it had taken decades for Ionis to perfect a drug, Yu now set a record: it took only eight months for him to make milasen, try it on animals, and convince the US Food and Drug Administration to let him inject it into Mila’s spine.

“What’s different now is that someone like Tim Yu can develop a drug with no prior familiarity with this technology,” says Art Krieg, chief scientific officer at Checkmate Pharmaceuticals, based in Cambridge, Massachusetts.

Source code

As word got out about milasen, Yu heard from more than a hundred families asking for his help. That’s put the Boston doctor in a tough position. Yu has plans to try antisense to treat a dozen kids with different diseases, but he knows it’s not the right approach for everyone, and he’s still learning which diseases might be most amenable. And nothing is ever simple—or cheap. Each new version of a drug can behave differently and requires costly safety tests in animals.

Kuzu had the advantage that the Los Angeles researchers had already shown antisense might work. What’s more, Margus agreed that the A-T Children’s Project would help fund the research. But it wouldn’t be fair to make the treatment just for Ipek if the foundation was paying for it. So Margus and Yu decided to test antisense drugs in the cells of three young A-T patients, including Ipek. Whichever kid’s cells responded best would get picked.

Ipek at play
Ipek may not survive past her 20s without treatment.Matthew Monteith

While he waited for the test results, Kuzu raised about $200,000 from friends and coworkers at Google. One day, an email landed in his in-box from another Google employee who was fundraising to help a sick child. As he read it, Kuzu felt a jolt of recognition: his coworker, Jennifer Seth, was also working with Yu.

Seth’s daughter Lydia was born in December 2018. The baby, with beautiful chubby cheeks, carries a mutation that causes seizures and may lead to severe disabilities. Seth’s husband Rohan, a well-connected Silicon Valley entrepreneur, refers to the problem as a “tiny random mutation” in her “source code.” The Seths have raised more than $2 million, much of it from co-workers.

Custom drug

By then, Yu was ready to give Kuzu the good news: Ipek’s cells had responded the best. So last September the family packed up and moved from California to Cambridge, Massachusetts, so Ipek could start getting atipeksen. The toddler got her first dose this January, under general anesthesia, through a lumbar puncture into her spine.

After a year, the Kuzus hope to learn whether or not the drug is helping. Doctors will track her brain volume and measure biomarkers in Ipek’s cerebrospinal fluid as a readout of how her disease is progressing. And a team at Johns Hopkins will help compare her movements with those of other kids, both with and without A-T, to observe whether the expected disease symptoms are delayed.

One serious challenge facing gene drugs for individuals is that short of a healing miracle, it may ultimately be impossible to be sure they really work. That’s because the speed with which diseases like A-T progress can vary widely from person to person. Proving a drug is effective, or revealing that it’s a dud, almost always requires collecting data from many patients, not just one. “It’s important for parents who are ready to pay anything, try anything, to appreciate that experimental treatments often don’t work,” says Holly Fernandez Lynch, a lawyer and ethicist at the University of Pennsylvania. “There are risks. Trying one could foreclose other options and even hasten death.”

Kuzu says his family weighed the risks and benefits. “Since this is the first time for this kind of drug, we were a little scared,” he says. But, he concluded, “there’s nothing else to do. This is the only thing that might give hope to us and the other families.”

Another obstacle to ultra-personal drugs is that insurance won’t pay for them. And so far, pharmaceutical companies aren’t interested either. They prioritize drugs that can be sold thousands of times, but as far as anyone knows, Ipek is the only person alive with her exact mutation. That leaves families facing extraordinary financial demands that only the wealthy, lucky, or well connected can meet. Developing Ipek’s treatment has already cost $1.9 million, Margus estimates.

Some scientists think agencies such as the US National Institutes of Health should help fund the research, and will press their case at a meeting in Bethesda, Maryland, in April. Help could also come from the Food and Drug Administration, which is developing guidelines that may speed the work of doctors like Yu. The agency will receive updates on Mila and other patients if any of them experience severe side effects.

The FDA is also considering giving doctors more leeway to modify genetic drugs to try in new patients without securing new permissions each time. Peter Marks, director of the FDA’s Center for Biologics Evaluation and Research, likens traditional drug manufacturing to factories that mass-produce identical T-shirts. But, he points out, it’s now possible to order an individual basic T-shirt embroidered with a company logo. So drug manufacturing could become more customized too, Marks believes.

Custom drugs carrying exactly the message a sick kid’s body needs? If we get there, credit will go to companies like Ionis that developed the new types of gene medicine. But it should also go to the Kuzus—and to Brad Margus, Rohan Seth, Julia Vitarello, and all the other parents who are trying save their kids. In doing so, they are turning hyper-personalized medicine into reality.

Erika Check Hayden is director of the science communication program at the University of California, Santa Cruz.

This story was part of our March 2020 issue.

The predictions issue

Cálculos mostram que será impossível controlar uma Inteligência Artificial super inteligente (Engenharia é:)

engenhariae.com.br

Ademilson Ramos, 23 de janeiro de 2021


Foto de Alex Knight no Unsplash

A ideia da inteligência artificial derrubar a humanidade tem sido discutida por muitas décadas, e os cientistas acabaram de dar seu veredicto sobre se seríamos capazes de controlar uma superinteligência de computador de alto nível. A resposta? Quase definitivamente não.

O problema é que controlar uma superinteligência muito além da compreensão humana exigiria uma simulação dessa superinteligência que podemos analisar. Mas se não formos capazes de compreendê-lo, é impossível criar tal simulação.

Regras como ‘não causar danos aos humanos’ não podem ser definidas se não entendermos o tipo de cenário que uma IA irá criar, sugerem os pesquisadores. Uma vez que um sistema de computador está trabalhando em um nível acima do escopo de nossos programadores, não podemos mais estabelecer limites.

“Uma superinteligência apresenta um problema fundamentalmente diferente daqueles normalmente estudados sob a bandeira da ‘ética do robô’”, escrevem os pesquisadores.

“Isso ocorre porque uma superinteligência é multifacetada e, portanto, potencialmente capaz de mobilizar uma diversidade de recursos para atingir objetivos que são potencialmente incompreensíveis para os humanos, quanto mais controláveis.”

Parte do raciocínio da equipe vem do problema da parada apresentado por Alan Turing em 1936. O problema centra-se em saber se um programa de computador chegará ou não a uma conclusão e responderá (para que seja interrompido), ou simplesmente ficar em um loop eterno tentando encontrar uma.

Como Turing provou por meio de uma matemática inteligente, embora possamos saber isso para alguns programas específicos, é logicamente impossível encontrar uma maneira que nos permita saber isso para cada programa potencial que poderia ser escrito. Isso nos leva de volta à IA, que, em um estado superinteligente, poderia armazenar todos os programas de computador possíveis em sua memória de uma vez.

Qualquer programa escrito para impedir que a IA prejudique humanos e destrua o mundo, por exemplo, pode chegar a uma conclusão (e parar) ou não – é matematicamente impossível para nós estarmos absolutamente seguros de qualquer maneira, o que significa que não pode ser contido.

“Na verdade, isso torna o algoritmo de contenção inutilizável”, diz o cientista da computação Iyad Rahwan, do Instituto Max-Planck para o Desenvolvimento Humano, na Alemanha.

A alternativa de ensinar alguma ética à IA e dizer a ela para não destruir o mundo – algo que nenhum algoritmo pode ter certeza absoluta de fazer, dizem os pesquisadores – é limitar as capacidades da superinteligência. Ele pode ser cortado de partes da Internet ou de certas redes, por exemplo.

O novo estudo também rejeita essa ideia, sugerindo que isso limitaria o alcance da inteligência artificial – o argumento é que se não vamos usá-la para resolver problemas além do escopo dos humanos, então por que criá-la?

Se vamos avançar com a inteligência artificial, podemos nem saber quando chega uma superinteligência além do nosso controle, tal é a sua incompreensibilidade. Isso significa que precisamos começar a fazer algumas perguntas sérias sobre as direções que estamos tomando.

“Uma máquina superinteligente que controla o mundo parece ficção científica”, diz o cientista da computação Manuel Cebrian, do Instituto Max-Planck para o Desenvolvimento Humano. “Mas já existem máquinas que executam certas tarefas importantes de forma independente, sem que os programadores entendam totalmente como as aprenderam.”

“Portanto, surge a questão de saber se isso poderia em algum momento se tornar incontrolável e perigoso para a humanidade.”

A pesquisa foi publicada no Journal of Artificial Intelligence Research.

Developing Algorithms That Might One Day Be Used Against You (Gizmodo)

gizmodo.com

Ryan F. Mandelbaum, Jan 24, 2021


Brian Nord is an astrophysicist and machine learning researcher.
Brian Nord is an astrophysicist and machine learning researcher. Photo: Mark Lopez/Argonne National Laboratory

Machine learning algorithms serve us the news we read, the ads we see, and in some cases even drive our cars. But there’s an insidious layer to these algorithms: They rely on data collected by and about humans, and they spit our worst biases right back out at us. For example, job candidate screening algorithms may automatically reject names that sound like they belong to nonwhite people, while facial recognition software is often much worse at recognizing women or nonwhite faces than it is at recognizing white male faces. An increasing number of scientists and institutions are waking up to these issues, and speaking out about the potential for AI to cause harm.

Brian Nord is one such researcher weighing his own work against the potential to cause harm with AI algorithms. Nord is a cosmologist at Fermilab and the University of Chicago, where he uses artificial intelligence to study the cosmos, and he’s been researching a concept for a “self-driving telescope” that can write and test hypotheses with the help of a machine learning algorithm. At the same time, he’s struggling with the idea that the algorithms he’s writing may one day be biased against him—and even used against him—and is working to build a coalition of physicists and computer scientists to fight for more oversight in AI algorithm development.

This interview has been edited and condensed for clarity.

Gizmodo: How did you become a physicist interested in AI and its pitfalls?

Brian Nord: My Ph.d is in cosmology, and when I moved to Fermilab in 2012, I moved into the subfield of strong gravitational lensing. [Editor’s note: Gravitational lenses are places in the night sky where light from distant objects has been bent by the gravitational field of heavy objects in the foreground, making the background objects appear warped and larger.] I spent a few years doing strong lensing science in the traditional way, where we would visually search through terabytes of images, through thousands of candidates of these strong gravitational lenses, because they’re so weird, and no one had figured out a more conventional algorithm to identify them. Around 2015, I got kind of sad at the prospect of only finding these things with my eyes, so I started looking around and found deep learning.

Here we are a few years later—myself and a few other people popularized this idea of using deep learning—and now it’s the standard way to find these objects. People are unlikely to go back to using methods that aren’t deep learning to do galaxy recognition. We got to this point where we saw that deep learning is the thing, and really quickly saw the potential impact of it across astronomy and the sciences. It’s hitting every science now. That is a testament to the promise and peril of this technology, with such a relatively simple tool. Once you have the pieces put together right, you can do a lot of different things easily, without necessarily thinking through the implications.

Gizmodo: So what is deep learning? Why is it good and why is it bad?

BN: Traditional mathematical models (like the F=ma of Newton’s laws) are built by humans to describe patterns in data: We use our current understanding of nature, also known as intuition, to choose the pieces, the shape of these models. This means that they are often limited by what we know or can imagine about a dataset. These models are also typically smaller and are less generally applicable for many problems.

On the other hand, artificial intelligence models can be very large, with many, many degrees of freedom, so they can be made very general and able to describe lots of different data sets. Also, very importantly, they are primarily sculpted by the data that they are exposed to—AI models are shaped by the data with which they are trained. Humans decide what goes into the training set, which is then limited again by what we know or can imagine about that data. It’s not a big jump to see that if you don’t have the right training data, you can fall off the cliff really quickly.

The promise and peril are highly related. In the case of AI, the promise is in the ability to describe data that humans don’t yet know how to describe with our ‘intuitive’ models. But, perilously, the data sets used to train them incorporate our own biases. When it comes to AI recognizing galaxies, we’re risking biased measurements of the universe. When it comes to AI recognizing human faces, when our data sets are biased against Black and Brown faces for example, we risk discrimination that prevents people from using services, that intensifies surveillance apparatus, that jeopardizes human freedoms. It’s critical that we weigh and address these consequences before we imperil people’s lives with our research.

Gizmodo: When did the light bulb go off in your head that AI could be harmful?

BN: I gotta say that it was with the Machine Bias article from ProPublica in 2016, where they discuss recidivism and sentencing procedure in courts. At the time of that article, there was a closed-source algorithm used to make recommendations for sentencing, and judges were allowed to use it. There was no public oversight of this algorithm, which ProPublica found was biased against Black people; people could use algorithms like this willy nilly without accountability. I realized that as a Black man, I had spent the last few years getting excited about neural networks, then saw it quite clearly that these applications that could harm me were already out there, already being used, and we’re already starting to become embedded in our social structure through the criminal justice system. Then I started paying attention more and more. I realized countries across the world were using surveillance technology, incorporating machine learning algorithms, for widespread oppressive uses.

Gizmodo: How did you react? What did you do?

BN: I didn’t want to reinvent the wheel; I wanted to build a coalition. I started looking into groups like Fairness, Accountability and Transparency in Machine Learning, plus Black in AI, who is focused on building communities of Black researchers in the AI field, but who also has the unique awareness of the problem because we are the people who are affected. I started paying attention to the news and saw that Meredith Whittaker had started a think tank to combat these things, and Joy Buolamwini had helped found the Algorithmic Justice League. I brushed up on what computer scientists were doing and started to look at what physicists were doing, because that’s my principal community.

It became clear to folks like me and Savannah Thais that physicists needed to realize that they have a stake in this game. We get government funding, and we tend to take a fundamental approach to research. If we bring that approach to AI, then we have the potential to affect the foundations of how these algorithms work and impact a broader set of applications. I asked myself and my colleagues what our responsibility in developing these algorithms was and in having some say in how they’re being used down the line.

Gizmodo: How is it going so far?

BN: Currently, we’re going to write a white paper for SNOWMASS, this high-energy physics event. The SNOWMASS process determines the vision that guides the community for about a decade. I started to identify individuals to work with, fellow physicists, and experts who care about the issues, and develop a set of arguments for why physicists from institutions, individuals, and funding agencies should care deeply about these algorithms they’re building and implementing so quickly. It’s a piece that’s asking people to think about how much they are considering the ethical implications of what they’re doing.

We’ve already held a workshop at the University of Chicago where we’ve begun discussing these issues, and at Fermilab we’ve had some initial discussions. But we don’t yet have the critical mass across the field to develop policy. We can’t do it ourselves as physicists; we don’t have backgrounds in social science or technology studies. The right way to do this is to bring physicists together from Fermilab and other institutions with social scientists and ethicists and science and technology studies folks and professionals, and build something from there. The key is going to be through partnership with these other disciplines.

Gizmodo: Why haven’t we reached that critical mass yet?

BN: I think we need to show people, as Angela Davis has said, that our struggle is also their struggle. That’s why I’m talking about coalition building. The thing that affects us also affects them. One way to do this is to clearly lay out the potential harm beyond just race and ethnicity. Recently, there was this discussion of a paper that used neural networks to try and speed up the selection of candidates for Ph.D programs. They trained the algorithm on historical data. So let me be clear, they said here’s a neural network, here’s data on applicants who were denied and accepted to universities. Those applicants were chosen by faculty and people with biases. It should be obvious to anyone developing that algorithm that you’re going to bake in the biases in that context. I hope people will see these things as problems and help build our coalition.

Gizmodo: What is your vision for a future of ethical AI?

BN: What if there were an agency or agencies for algorithmic accountability? I could see these existing at the local level, the national level, and the institutional level. We can’t predict all of the future uses of technology, but we need to be asking questions at the beginning of the processes, not as an afterthought. An agency would help ask these questions and still allow the science to get done, but without endangering people’s lives. Alongside agencies, we need policies at various levels that make a clear decision about how safe the algorithms have to be before they are used on humans or other living things. If I had my druthers, these agencies and policies would be built by an incredibly diverse group of people. We’ve seen instances where a homogeneous group develops an app or technology and didn’t see the things that another group who’s not there would have seen. We need people across the spectrum of experience to participate in designing policies for ethical AI.

Gizmodo: What are your biggest fears about all of this?

BN: My biggest fear is that people who already have access to technology resources will continue to use them to subjugate people who are already oppressed; Pratyusha Kalluri has also advanced this idea of power dynamics. That’s what we’re seeing across the globe. Sure, there are cities that are trying to ban facial recognition, but unless we have a broader coalition, unless we have more cities and institutions willing to take on this thing directly, we’re not going to be able to keep this tool from exacerbating white supremacy, racism, and misogyny that that already exists inside structures today. If we don’t push policy that puts the lives of marginalized people first, then they’re going to continue being oppressed, and it’s going to accelerate.

Gizmodo: How has thinking about AI ethics affected your own research?

BN: I have to question whether I want to do AI work and how I’m going to do it; whether or not it’s the right thing to do to build a certain algorithm. That’s something I have to keep asking myself… Before, it was like, how fast can I discover new things and build technology that can help the world learn something? Now there’s a significant piece of nuance to that. Even the best things for humanity could be used in some of the worst ways. It’s a fundamental rethinking of the order of operations when it comes to my research.

I don’t think it’s weird to think about safety first. We have OSHA and safety groups at institutions who write down lists of things you have to check off before you’re allowed to take out a ladder, for example. Why are we not doing the same thing in AI? A part of the answer is obvious: Not all of us are people who experience the negative effects of these algorithms. But as one of the few Black people at the institutions I work in, I’m aware of it, I’m worried about it, and the scientific community needs to appreciate that my safety matters too, and that my safety concerns don’t end when I walk out of work.

Gizmodo: Anything else?

BN: I’d like to re-emphasize that when you look at some of the research that has come out, like vetting candidates for graduate school, or when you look at the biases of the algorithms used in criminal justice, these are problems being repeated over and over again, with the same biases. It doesn’t take a lot of investigation to see that bias enters these algorithms very quickly. The people developing them should really know better. Maybe there needs to be more educational requirements for algorithm developers to think about these issues before they have the opportunity to unleash them on the world.

This conversation needs to be raised to the level where individuals and institutions consider these issues a priority. Once you’re there, you need people to see that this is an opportunity for leadership. If we can get a grassroots community to help an institution to take the lead on this, it incentivizes a lot of people to start to take action.

And finally, people who have expertise in these areas need to be allowed to speak their minds. We can’t allow our institutions to quiet us so we can’t talk about the issues we’re bringing up. The fact that I have experience as a Black man doing science in America, and the fact that I do AI—that should be appreciated by institutions. It gives them an opportunity to have a unique perspective and take a unique leadership position. I would be worried if individuals felt like they couldn’t speak their mind. If we can’t get these issues out into the sunlight, how will we be able to build out of the darkness?

Ryan F. Mandelbaum – Former Gizmodo physics writer and founder of Birdmodo, now a science communicator specializing in quantum computing and birds

Papa Francisco pede orações para robôs e IA (Tecmundo)

11/11/2020 às 18:30 1 min de leitura

Imagem de: Papa Francisco pede orações para robôs e IA

Jorge Marin

O Papa Francisco pediu aos fiéis do mundo inteiro para que, durante o mês de novembro, rezem para que o progresso da robótica e da inteligência artificial (IA) possam sempre servir a humanidade.

A mensagem faz parte de uma série de intenções de oração que o pontífice divulga anualmente, e compartilha a cada mês no YouTube para auxiliar os católicos a “aprofundar sua oração diária”, concentrando-se em tópicos específicos. Em setembro, o papa pediu orações para o “compartilhamento dos recursos do planeta”; em agosto, para o “mundo marítimo”; e agora chegou a vez dos robôs e da IA.

Na sua mensagem, o Papa Francisco pediu uma atenção especial para a IA que, segundo ele, está “no centro da mudança histórica que estamos experimentando”. E que não se trata apenas dos benefícios que a robótica pode trazer para o mundo.

Progresso tecnológico e algoritmos

Francisco afirma que nem sempre o progresso tecnológico é sinal de bem-estar para a humanidade, pois, se esse progresso contribuir para aumentar as desigualdades, não poderá ser considerado como um progresso verdadeiro. “Os avanços futuros devem ser orientados para o respeito à dignidade da pessoa”, alerta o papa.

A preocupação com que a tecnologia possa aumentar as divisões sociais já existentes levou o Vaticano assinar no início deste ano, em conjunto com a Microsoft e a IBM, a “Chamada de Roma por Ética de IA”, um documento em que são fixados alguns princípios para orientar a implantação da IA: transparência, inclusão, imparcialidade e confiabilidade.

Mesmo pessoas não religiosas são capazes de reconhecer que, quando se trata de implantar algoritmos, a preocupação do papa faz todo o sentido.

How will AI shape our lives post-Covid? (BBC)

Original article

BBC, 09 Nov 2020

Audrey Azoulay: Director-General, Unesco
How will AI shape our lives post-Covid?

Covid-19 is a test like no other. Never before have the lives of so many people around the world been affected at this scale or speed.

Over the past six months, thousands of AI innovations have sprung up in response to the challenges of life under lockdown. Governments are mobilising machine-learning in many ways, from contact-tracing apps to telemedicine and remote learning.

However, as the digital transformation accelerates exponentially, it is highlighting the challenges of AI. Ethical dilemmas are already a reality – including privacy risks and discriminatory bias.

It is up to us to decide what we want AI to look like: there is a legislative vacuum that needs to be filled now. Principles such as proportionality, inclusivity, human oversight and transparency can create a framework allowing us to anticipate these issues.

This is why Unesco is working to build consensus among 193 countries to lay the ethical foundations of AI. Building on these principles, countries will be able to develop national policies that ensure AI is designed, developed and deployed in compliance with fundamental human values.

As we face new, previously unimaginable challenges – like the pandemic – we must ensure that the tools we are developing work for us, and not against us.

The Genetic Engineering Genie Is Out of the Bottle (Financial Times)

foreignpolicy.com

Vivek Wadhwa, September 11, 2020

An infrared microscope image shows mosquito larvae with red-glowing eyes, part of an experiment using CRISPR gene-editing technology. MediaNews Group/Orange County Register via Getty Images

Usually good for a conspiracy theory or two, U.S. President Donald Trump has suggested that the virus causing COVID-19 was either intentionally engineered or resulted from a lab accident at the Wuhan Institute of Virology in China. Its release could conceivably have involved an accident, but the pathogen isn’t the mishmash of known viruses that one would expect from something designed in a lab, as a research report in Nature Medicine conclusively lays out. “If someone were seeking to engineer a new coronavirus as a pathogen, they would have constructed it from the backbone of a virus known to cause illness,” the researchers said.

But if genetic engineering wasn’t behind this pandemic, it could very well unleash the next one. With COVID-19 bringing Western economies to their knees, all the world’s dictators now know that pathogens can be as destructive as nuclear missiles. What’s even more worrying is that it no longer takes a sprawling government lab to engineer a virus. Thanks to a technological revolution in genetic engineering, all the tools needed to create a virus have become so cheap, simple, and readily available that any rogue scientist or college-age biohacker can use them, creating an even greater threat. Experiments that could once only have been carried out behind the protected walls of government and corporate labs can now practically be done on the kitchen table with equipment found on Amazon. Genetic engineering—with all its potential for good and bad—has become democratized.

To design a virus, a bio researcher’s first step is to obtain the genetic information of an existing pathogen—such as one of the coronaviruses that cause the common cold—which could then be altered to create something more dangerous. In the 1970s, the first genetic sequencing of a bacterium, Escherichia coli, took weeks of effort and cost millions of dollars just to determine its 5,836 base pairs, the building blocks of genetic information. Today, sequencing the 3,000,000,000 base pairs that make up the human genome, which dictates the construction and maintenance of a human being, can be done in a few hours for about $1000 in the United States. Xun Xu, the CEO of Chinese genomics research company BGI Group, told me by email that he expects to offer full human-genome sequencing in supermarkets and online for about $290 by the end of this year.

The next step in engineering a virus is to modify the genome of the existing pathogen to change its effects. One technology in particular makes it almost as easy to engineer life forms as it is to edit Microsoft Word documents. CRISPR gene editing, developed only a few years ago, deploys the same natural mechanism that bacteria use to trim pieces of genetic information from one genome and insert it into another. This mechanism, which bacteria developed over millennia to defend themselves from viruses, has been turned into a cheap, simple, and fast way to edit the DNA of any organism in the lab.

If experimenting with DNA once required years of experience, sophisticated labs, and millions of dollars, CRISPR has changed all that. To set up a CRISPR editing capability, the experimenter need only order a fragment of RNA and purchase off-the-shelf chemicals and enzymes, costing only a few dollars, on the Internet. Because it’s so cheap and easy to use, thousands of scientists all over the world are experimenting with CRISPR-based gene editing projects. Very little of this research is limited by regulations, largely because regulators don’t yet understand what has suddenly become possible.

China, with its emphasis on technological progress ahead of safety and ethics, has made the most astonishing breakthroughs. In 2014, Chinese scientists announced they had successfully produced monkeys that had been genetically modified at the embryonic stage. In April 2015, another group of researchers in China detailed the first ever-effort to edit the genes of a human embryo. While the attempt failed, it shocked the world: This wasn’t supposed to happen so soon.

In April 2016, yet another group of Chinese researchers reported having succeeded in modifying the genome of a human embryo in an effort to make it resistant to HIV infection, though the embryo was not brought to term. But then, in November 2018, Chinese researcher He Jiankui announced that he had created the first “CRISPR babies”—healthy infants whose genomes were edited before they were born. The People’s Daily gushed over the “historical breakthrough,” but after a global uproar, the Chinese authorities—who, He claims, had supported his efforts—arrested and later sentenced him to three years in prison for unethical conduct. But the Rubicon of biomedical science had been crossed.

China’s legion of rogue scientists is certainly a worry. But gene-editing technology has become so accessible that we could conceivably see teenagers experimenting with viruses. In the United States, anyone who wants to start modifying the genome in their garage can order a do-it-yourself CRISPR kit online for $169, for example. This comes with “everything you need to make precision genome edits in bacteria at home.” For $349, the same company is also offering a human engineering kit, which comes with embryonic kidney cells from a tissue culture originally taken from an aborted female human fetus. Shipment is advertised to take no longer than three days—no special couriers or ice packs needed.

Mail-order DNA fragments enabled a team at the University of Alberta, in 2017, to resurrect an extinct relative of the smallpox virus, horsepox, from scratch by stitching together the fragments. Horsepox is not known to harm humans, but experts warned that the same method could be used by scientists without much specialized knowledge to recreate smallpox—a horrific virus finally eradicated in 1980—within six months at a cost of about $100,000. Had the Canadian scientists used CRISPR, their cost would have been reduced to a fraction.

In my book, The Driver in the Driverless Car, published before the Canadian horsepox resurrection and the Chinese gene-edited babies, I warned about the dangers of gene editing, predicting we would have to make difficult choices about whether to restrict synthetic biology technologies. When used for good purposes, these technologies can help solve the problems of humanity—by quickly finding cures for diseases, for example. When used for evil, they can wreak global havoc of exactly the kind we are now fighting. That is why many people, myself included, have advocated for a moratorium on human gene editing.

But not just a moratorium: There should have been international treaties to prevent the use of CRISPR for gene editing on humans or animals. The U.S. Food and Drug Administration should have kept companies from selling DIY gene-editing kits. Governments should have placed restrictions on labs such as the University of Alberta’s. But none of this happened, nor were there any other checks and balances. It is now too late to stop the global spread of these technologies—the genie is out of the bottle.

Now, the only solution is to accelerate the good side of these technologies while building our defenses. As we are seeing with the development of vaccines for COVID-19, this is possible. In the past, vaccines took decades to create. Now, we are on track to have them within months, thanks to advances in genetic engineering. The Moderna Therapeutics and Pfizer/BioNTech vaccines, which are now in third-stage clinical trials, took only weeks to develop. It is conceivable that this could be reduced to hours once the technologies are perfected.

We can also accelerate the process of testing vaccines and treatments, which has become the slowest part of the development cycle. To test greater numbers of potential cancer drugs more quickly, for example, labs all over the world are creating three-dimensional cell cultures called “patient-derived organoids” from tumor biopsies. The leading company in this field, SEngine Precision Medicine, is able to test more than 100 drugs on these organoids, removing the need to use human subjects as the guinea pigs. Researchers at Harvard University’s Wyss Institute announced in January 2020 that they had developed the first human “organ-on-a-chip” model of the lung that accurately replicates a human organ’s physiology and pathophysiology. Engineers at the Massachusetts Institute of Technology have been developing a microfluidic platform that connects engineered tissues from up to 10 organs, allowing the replication of human-organ interactions for weeks at a time in order to measure the effects of drugs on different parts of the body. Many more such systems are being developed that could accelerate testing and treatment. All these technologies will greatly strengthen our biodefense.

There really is no turning back to correct the mistakes of the past. The genie cannot be put back in the bottle. We must treat the coronavirus pandemic as a full dress rehearsal of what is to come—unfortunately, that includes not only viruses that erupt from nature, but also those that will be deliberately engineered by humans. We must learn very quickly to build the same types of types of defenses that our computers have against their invaders. The good that might ultimately come from this is the cure for all disease. The bad is just about too terrible to think about.

Ética cresce em importância no mundo com menos religião, diz Luciano Floridi (Folha de S.Paulo)

Folha de S.Paulo

Raphael Hernandes – 19 de fevereiro de 2020

Ser um pioneiro em um dos ramos de uma área do conhecimento que possui milênios de existência, a filosofia, é para poucos. E esse é o caso do italiano Luciano Floridi, 55, professor da Universidade de Oxford.

Ele é um dos primeiros, e mais proeminentes, nomes nos campos de filosofia e ética da informação. Esses ramos estudam tópicos ligados à computação e tecnologia. É conselheiro da área para o governo britânico e trabalhou para empresas gigantes da área, como Google e a chinesa Tencent.

Ele também se destaca quando o assunto é especificamente IA (inteligência artificial). Floridi foi um dos 52 autores das “Orientações éticas para uma IA de confiança”, da União Europeia.

À Folha, falou sobre temas que foram desde o elementar na sua área, como a definição de inteligência artificial, a discussões mais complexas acerca de como pensar nossa relação com a tecnologia.

Para ele, a discussão moral cresce em importância na era digital. “Temos menos religião. As pessoas tendem a associar ética à religião um pouco menos do que no passado”, diz. “Ela precisa se sustentar sozinha.”

A conversa por videochamada durou aproximadamente uma hora e foi interrompida apenas uma vez: quando a mulher de Floridi, brasileira, foi embarcar num avião para visitar o país natal e ele quis desejar uma boa viagem.

A fala paciente e educada deu lugar a irritação quando o assunto se tornou pensamento de Nick Bostrom, também filósofo da Universidade de Oxford, que versa sobre os riscos de a IA destruir a humanidade.

“A IA descrita na singularidade e na superinteligência de Nick Bostrom não é impossível”, diz. “Da mesma forma que é possível que uma civilização extraterrestre chegue aqui, domine e escravize a humanidade. Impossível? Não. Vamos nos planejar para o caso de isso acontecer? Só pode ser piada.”

*

Como definir IA? São artefatos construídos pelo homem capazes de fazer coisas no nosso lugar, para nós e, às vezes, melhor do que nós, com uma habilidade especial que não encontramos em outros artefatos mecânicos: aprender a partir de sua performance e melhorar.
Uma forma de descrever IA é como uma espécie de reservatório de operações para fazer coisas que podemos aplicar em contextos diferentes. Podemos aplicar para economizar eletricidade em casa, para encontrar informações interessantes sobre pessoas que visitam minha loja, para melhorar a câmera do meu celular, para recomendar em um site outros produtos dos quais o consumidor gostaria.

Na academia há muitas opiniões contrastantes sobre o que é IA. A definição de IA é importante? Uma definição diz “isso é aquilo” e “aquilo é isso”, como “água é H2O” e “H2O é água” e não tem erro. Não temos uma definição sobre IA dessa forma, mas também não temos definição de muitas coisas importantes na vida como amor, inteligência e por aí vai. Muitas vezes temos um bom entendimento, conseguimos reconhecer essas coisas ao vê-las. É crucial ter um bom entendimento da tecnologia porque aí temos as regras e a governança de algo que compreendemos.

Qual a importância da ética hoje, uma era digital? Ela se tornou mais e mais importante porque nós temos algo mais e algo menos. Temos menos religião, então ela precisa se sustentar sozinha. Não se pode justificar algo dizendo “porque a Igreja diz isso” ou porque “Deus mandou”. Um pouco menos de religião tornou o debate ético mais difícil, mas mais urgente.
E temos algo mais: falamos muito mais uns com os outros do que em qualquer momento no passado. Estou falando de globalização. De repente, diferentes visões sobre o que está certo e errado estão colidindo de uma forma que nunca aconteceu. Quanto mais tecnologia, ciência e poder tivermos sobre qualquer coisa –sociedade, o ambiente, nossas próprias vidas–, mais urgentes ficam as questões éticas.

E por que discutir ética em IA? Até recentemente, entendíamos em termos de “intervenções divinas” (para as pessoas do passado que acreditavam em Deus), “intervenções humanas” ou “intervenções animais”. Essas eram as forças possíveis. É como se tivéssemos um tabuleiro de xadrez em que, de repente, surge uma peça nova. Claramente, essa peça muda o jogo todo. É IA.
Se você tem algo que pode fazer coisas no mundo de forma autônoma e aprendendo, de modo que podem mudar seus próprios programas, sua atividade requer entendimento de certo e errado: ética.

Como respondemos essas perguntas e definimos os limites? No último ano tivemos um florescer de códigos éticos para IA. Dois em particular são bem importantes pelo alcance. Um é o da União Europeia. Fizemos um bom trabalho, penso, e temos uma boa estrutura na Europa para entender IA boa e não tão boa. O outro é da OCDE, uma estrutura semelhante.

Críticos dizem que esses documentos não são específicos o suficiente. O sr. vê eles como um primeiro passo? Mostra que, pelo menos, algumas pessoas em algum lugar se importam o suficiente para produzir um documento sobre essa história toda. Isso é melhor do que nada, mas é só isso: melhor que nada. Alguns deles são completamente inúteis.
O que acontece agora é que toda empresa, toda instituição, todo governo sente que não pode ser deixado para trás. Se 100 empresas têm um documento com suas estruturas e regras para IA, se sou a empresa 102 também preciso ter. Não posso ser o único sem.
Precisamos fazer muito mais. Por isso, as diretrizes verdadeiras são feitas por governos, organizações ou instituições internacionais. Se você tem instituições internacionais, como a OECD, União Europeia, Unesco, intervindo, já estamos em um novo passo na direção certa.
Olhe, por exemplo, a IA aplicada a reconhecimento facial. Já tivemos esse debate. Uso reconhecimento facial na minha loja? No aeroporto? Esse buraco tem que ser tapado e as pessoas o estão tapando. Eu tendo a ser um pouco otimista.

E como estamos nessa tradução de diretrizes em políticas práticas? Num contexto geral, vejo grandes empresas desenvolvendo serviços de consultoria para seus clientes e ajudando a verificar se estão de acordo com as regras e regulações, bem como se levaram em consideração questões éticas.
Há lacunas e mais precisa ser feito, mas algo já está disponível. As pessoas estão se mexendo em termos de legislação, autorregulação, políticas ou ferramentas digitais para traduzir princípios em práticas. O que se pode fazer é se certificar que os erros aconteçam o mais raramente possível e que, quando acontecerem, haja uma forma de retificar.

Com diferentes entidades, governos, instituições e empresas criando suas regras para uso de IA, não corremos o risco de ficar perdidos em termos de qual documento seguir? Um pouco, sim. No começo pode ter discordância, ou visões diferentes, mas isso é algo que já vivemos no passado.
Toda a história de padrões industriais e de negócios é cheia desses desacordos e, depois, reconciliação e encontrar uma plataforma comum para todos estarem em concordância.

As grandes empresas de tecnologia estão pedindo por regulação, o que é estranho, visto que elas normalmente tentam autoregulação. O sr. esteve com uma delas, a Google. Por que esse interesse das empresas de tecnologia agora? Há alguns motivos para isso. O primeiro é certeza: eles querem ter certeza do que é certo e errado. Empresas gostam de certeza, mais até do que de regras boas. Melhor ter regras ruins do que regra nenhuma. A segunda coisa é que entendem que a opinião pública pede por uma boa aplicação de IA. Dado que é opinião pública, tem que vir da sociedade o que é aceitável e o que não é. Empresas gostam de regulações desde que elas ajudem.

Há diferença ao pensar em regulações para sistemas com finalidades diferentes? Por exemplo, é diferente pensar em regulação em IA para carros automatizados e IA para sugestão de músicas? Sim e não. Há regulações que são comuns para muitas áreas. Pense nas regulações de segurança envolvendo eletricidade. Não importa se é uma furadeira elétrica, um forno elétrico ou um carro elétrico. É eletricidade e, portanto, tem regulações de segurança. Isso se aplicaria igualmente à IA. Mas aí você tem algo específico: você tem segurança ligada aos freios para o carro, não para o micro-ondas. Isso é bem específico. Penso, então, numa combinação dos dois: princípios que cubram várias áreas diferentes, diretrizes que se espalhem horizontalmente, mas também verticalmente pensando em setor por setor.

Quão longe estamos de ter essas diretrizes estabelecidas? Falamos de meses, anos, uma geração? Alguns anos. Eu não me surpreenderia se tivéssemos essa conversa em cinco anos e o que dissemos hoje fosse história.

E como funciona esse processo de pensamento na prática? Por exemplo, no caso de carros autônomos, como se chega a uma conclusão em relação à responsabilidade do caso de acidente: é do motorista, da fabricante, de quem? Tínhamos isso em muitos outros contextos antes da IA. A recomendação é distribuir a responsabilidade entre todos os agentes envolvidos, a menos que eles consigam provar que não tiveram nada a ver com acidente.
Um exemplo bem concreto: na Holanda, se você andar de bicicleta ao lado de alguém, sem problemas. Você pode andar na rua, lado a lado com alguém e tudo bem. Se uma terceira pessoa se junta a vocês, é ilegal. Não se pode ir com três pessoas lado a lado numa rua pública. Quem recebe a multa? Todos os três, porque quando A e B estavam lado a lado e o C chega até eles, A e B poderiam reduzir a velocidade ou parar totalmente para que o C passasse. Agora, na mesma Holanda, outro exemplo, se dois barcos estão parados na margem do rio lado a lado, é legal. Se um terceiro barco chegar e parar ao lado deles, é ilegal. Nesse caso, somente o terceiro barco tomaria uma multa. Por quê? Porque os outros dois barcos não podem ir para lugar algum. Não é culpa deles. Pode ver que são dois exemplos bastante elementares, bem claros, com três agentes. Em um caso igualmente responsáveis e a responsabilidade é distribuída, no outro caso apenas um responsável.
Com IA é o mesmo. Em contextos nos quais tivermos uma pessoa, doida, usando IA para algo mal, a culpa é dessa pessoa. Não tem muito debate. Em muitos outros contextos, com muitos agentes, quem será culpado? Todos, a menos que provem que não fizeram nada de errado. Então o fabricante do carro, do software, o motorista, até mesmo a pessoa que atravessou a rua no lugar errado. Talvez haja corresponsabilidade que precise ser distribuída entre eles.

Seria sempre uma análise caso a caso? Acho que é mais tipos de casos. Não só um caso isolado, mas uma família de casos.
Façamos um exemplo realista. Se uma pessoa dirigindo em um carro autônomo não tem como dirigir, usar um volante, nada. É como eu em um trem, tenho zero controle. Aí o carro se envolve num acidente. De quem é a culpa? Você culparia um passageiro pelo acidente que o trem teve? Claro que não. Num caso em que haja um volante, em que haja um grande botão vermelho dizendo “se algo der errado, aperte o botão”… Quem é responsável? O fabricante do carro e o motorista que não apertou o botão.
Precisamos ser bastante concretos e nos certificar de que existem tipologias e, não exatamente caso a caso, mas compreendendo que caso tal pertence a tal tipologia. Aí teremos um senso claro do que está acontecendo.

Em suas palestras, o sr. menciona um uso em excesso e a subutilização de IA. Quais os problemas nessas situações? O excesso de uso, com um exemplo concreto, é como o debate que temos hoje sobre reconhecimento facial. Não precisamos disso em todos os cantos. É como matar mosquitos com uma granada.
A subutilização é típica, por exemplo, no setor de saúde. Não usamos porque a regulação não é muito clara, as pessoas têm medo das consequências.

A IA vai criar o futuro, estar em tudo? Temos uma grande oportunidade de fazer muito trabalho bom, tanto para nossos problemas sociais, desigualdade em particular, e para o ambiente, particularmente aquecimento global. É uma tecnologia muito poderosa que, nas mãos certas e com a governança correta, poderia fazer coisas fantásticas. Me preocupa um pouco o fato de que não estamos fazendo isso, estamos perdendo a oportunidade.
O motivo de a ética ser tão importante é exatamente porque a aplicação correta dessa tecnologia precisará de um projeto geral sobre a nossa sociedade. Gosto de chamá-lo de “projeto humano”. O que a sociedade irá querer. Qual futuro queremos deixar para as próximas gerações? Estamos preocupados com outras coisas, como usar IA para gerar mais dinheiro, basicamente.

E os direitos dos robôs? Deveríamos estar pensando nisso? [Risos]. Não, isso é uma piada. Você daria direitos à sua lavadora de louças? É uma peça de engenharia. É um bom entretenimento [falar de direito dos robôs], podemos brincar sobre isso, mas não falemos de Star Wars.

O sr. é crítico em relação à ficção científica que trata do fim do mundo por meio de IA ou superinteligência. Não vê a ideia de Nick Bostrom como uma possibilidade? Acho que as pessoas têm jogado com alguns truques. Esses são truques que ensinamos a alunos de filosofia no primeiro ano. O truque é falar sobre “possibilidade” e é exatamente essa a palavra que usam.
Deixe-me dar um exemplo: imagine que eu compre um bilhete de loteria. É possível que eu ganhe? Claro. Compro outro bilhete de outra loteria. É possível que eu ganhe da segunda vez? Sim, mas não vai acontecer. É improvável, é insignificantemente possível. Esse é o tipo de racionalização feita por Nick Bostrom. “Ah! Mas você não pode excluir a possibilidade…” Não, não posso. A IA descrita na singularidade e na superinteligência de Nick Bostrom não é impossível. Concordo. Significa que é possível? Não.
Da mesma forma que é possível que uma civilização extraterrestre chegue aqui, domine e escravize a humanidade. Impossível? Hmmm. Não. Vamos nos planejar para o caso de isso acontecer? Só pode ser piada.

A IA é uma força para o bem? Acho que sim. Como a maioria das tecnologias que já desenvolvemos são. Quando falamos da roda, alfabeto, computadores, eletricidade… São todas coisas boas. A internet. É tudo coisa boa. Podemos usar para algo ruim? Absolutamente.
Sou mais otimista em relação à tecnologia e menos em relação à humanidade. Acho que faremos uma bagunça com ela. Por isso, discussões como a do Nick Bostrom, singularidade, etc. não são simplesmente engraçadas. Elas distraem, e isso é sério.
Conforme falamos, temos 700 milhões de pessoas sem acesso a água limpa que poderiam usar IA para ter uma chance. E você realmente quer se preocupar com algum Exterminador do Futuro? Skynet? Eticamente falando, é irresponsável. Pare de ver Netflix e caia na real.

Reportagem: Raphael Hernandes/ Edição: Camila Marques, Eduardo Sodré, Roberto Dias / Ilustrações e infografia: Carolina Daffara

Crises are no excuse for lowering scientific standards, say ethicists (Science News)

Date: April 23, 2020

Source: Carnegie Mellon University

Summary: Ethicists are calling on the global research community to resist treating the urgency of the current COVID-19 outbreak as grounds for making exceptions to rigorous research standards in pursuit of treatments and vaccines.

Ethicists from Carnegie Mellon and McGill universities are calling on the global research community to resist treating the urgency of the current COVID-19 outbreak as grounds for making exceptions to rigorous research standards in pursuit of treatments and vaccines.

With hundreds of clinical studies registered on ClinicalTrials.gov, Alex John London, the Clara L. West Professor of Ethics and Philosophy and director of the Center for Ethics and Policy at Carnegie Mellon, and Jonathan Kimmelman, James McGill Professor and director of the Biomedical Ethics Unit at McGill University, caution that urgency should not be used as an excuse for lowering scientific standards. They argue that many of the deficiencies in the way medical research is conducted under normal circumstances seem to be amplified in this pandemic. Their paper, published online April 23 by the journal Science, provides recommendations for conducting clinical research during times of crises.

“Although crises present major logistical and practical challenges, the moral mission of research remains the same: to reduce uncertainty and enable care givers, health systems and policy makers to better address individual and public health,” London and Kimmelman said.

Many of the first studies out of the gate in this pandemic have been poorly designed, not well justified, or reported in a biased manner. The deluge of studies registered in their wake threaten to duplicate efforts, concentrate resources on strategies that have received outsized media attention and increase the potential of generating false positive results purely by chance.

“All crises present exceptional situations in terms of the challenges they pose to health and welfare. But the idea that crises present an exception to the challenges of evaluating the effects drugs and vaccines is a mistake,” London and Kimmelman said. “Rather than generating permission to carry out low-quality investigations, the urgency and scarcity of pandemics heighten the responsibility of key actors in the research enterprise to coordinate their activities to uphold the standards necessary to advance this mission.”

The ethicists provide recommendations for multiple stakeholder groups involved in clinical trials:

  • Sponsors, research consortia and health agencies should prioritize research approaches that test multiple treatments side by side. The authors argue that “master protocols” enable multiple treatments to be tested under a common statistical framework.
  • Individual clinicians should avoid off-label use of unvalidated interventions that might interfere with trial recruitment and resist the urge to carry out small studies with no control groups. Instead, they should seek out opportunities to join larger, carefully orchestrated studies.
  • Regulatory agencies and public health authorities should play a leading role in identifying studies that meet rigorous standards and in fostering collaboration among a sufficient number of centers to ensure adequate recruitment and timely results. Rather than making public recommendations about interventions whose clinical merits remain to be established, health authorities can point stakeholders to recruitment milestones to elevate the profile and progress of high-quality studies.

“Rigorous research practices can’t eliminate all uncertainty from medicine,” London and Kimmelman said, “but they can represent the most efficient way to clarify the causal relationships clinicians hope to exploit in decisions with momentous consequences for patients and health systems.”

Hélio Schwartsman: Bolsonaro, a ciência e a ética (Folha de S.Paulo)

Artigo original

17 de abril de 2020

Hoje eu vou dar uma de filósofo chato e preciosista. Tornou-se um lugar-comum afirmar que Bolsonaro age contra a ciência e que suas atitudes diante da pandemia de Covid -19 são absurdas. Concordo que são absurdas, mas receio que não seja tão simples carimbá-las como anticientíficas.

Não me entendam mal, sou fã da ciência. É a ela que devemos quase todos os desenvolvimentos que tornaram a existência humana menos miserável nos últimos séculos. Mas, se quisermos usar os conceitos com algum rigor, a ciência nunca nos diz como devemos atuar.

Quem chamou a atenção para o problema foi David Hume (1711-1776). Para o filósofo, existe uma diferença lógica fundamental entre proposições descritivas, que são as que a ciência nos dá, e proposições prescritivas ou normativas, que são as que se traduzem em decisões de como agir. Nós nunca podemos extrair as segundas diretamente das primeiras. Esse passo necessariamente envolve valores, que não são do domínio da ciência, mas da ética.

Isso significa que a ciência só vai até certo ponto. Ela nos esclarece sobre o comportamento de vírus novos em populações suscetíveis, alerta para a força avassaladora da curva exponencial e vai nos municiando com os parâmetros epidemiológicos do Sars-Cov-2, sobre os quais ainda paira muita incerteza. O que fazemos com essas informações, porém, já não é da alçada da ciência.

Muitas vezes, os cenários traçados pelos especialistas são tão desequilibrados que não deixam margem a dúvida. A escolha sobre o que fazer se torna simples aplicação do bom senso. É o caso da adoção do isolamento social nesta primeira fase da epidemia. Em outras tantas, porém, sobrepõem-se camadas adicionais de complexidade, que precisamos sopesar à luz de valores.

O ponto central é que nossas decisões devem ser informadas pela ciência, mas são inapelavelmente determinadas pela ética —​ou pela falta dela.

‘Relatório sobre 1,5ºC trará dilema moral’ (Observatório do Clima)

Vice-presidente do IPCC afirma que próximo documento do grupo, em 2018, pode apresentar a escolha entre salvar países-ilhas e usar tecnologias incipientes de modificação climática

O próximo relatório do IPCC, o Painel Intergovernamental sobre Mudanças Climáticas, encomendado para 2018, pode apresentar à humanidade um dilema moral: devemos lançar mão em larga escala de tecnologias ainda não testadas e potencialmente perigosas de modificação do clima para evitar que o aquecimento global ultrapasse 1,5oC? Ou devemos ser prudentes e evitar essas tecnologias, colocando em risco a existência de pequenas nações insulares ameaçadas pelo aumento do nível do mar?

Quem expõe a dúvida é Thelma Krug, 65, diretora de Políticas de Combate ao Desmatamento do Ministério do Meio Ambiente e vice-presidente do painel do clima da ONU. Ela coordenou o comitê científico que definiu o escopo do relatório e produziu, no último dia 20, a estrutura de seus capítulos. A brasileira deverá ter papel-chave também na redação do relatório, cujos autores serão escolhidos a partir de novembro.

O documento em preparação é um dos relatórios mais aguardados da história do IPCC. É também único pelo fato de ser feito sob encomenda: a Convenção do Clima, na decisão do Acordo de Paris, em 2015, convidou o painel a produzir um relatório sobre impactos e trajetórias de emissão para limitar o aquecimento a 1,5oC, como forma de embasar cientificamente o objetivo mais ambicioso do acordo. A data de entrega do produto, 2018, coincidirá com a primeira reunião global para avaliar a ambição coletiva das medidas tomadas contra o aquecimento global após a assinatura do tratado.

Segundo Krug, uma das principais mensagens do relatório deverá ser a necessidade da adoção das chamadas emissões negativas, tecnologias que retirem gases-estufa da atmosfera, como o sequestro de carbono em usinas de bioenergia. O problema é que a maior parte dessas tecnologias ou não existe ainda ou nunca foi testada em grande escala. Algumas delas podem envolver modificação climática, a chamada geoengenharia, cujos efeitos colaterais – ainda especulativos, como as próprias tecnologias – podem ser quase tão ruins quanto o mal que elas se propõem a curar.

Outro risco, apontado pelo climatólogo britânico Kevin Anderson em comentário recente na revista Science, é essas tecnologias virarem uma espécie de desculpa para a humanidade não fazer o que realmente precisa para mitigar a mudança climática: parar de usar combustíveis fósseis e desmatar florestas.

“Ficamos numa situação muito desconfortável com várias tecnologias e metodologias que estão sendo propostas para emissões negativas”, disse Krug. “Agora, numa situação em que você não tem uma solução a não ser esta, aí vai ser uma decisão moral. Porque aí você vai ter dilema com as pequenas ilhas, você vai ter um problema de sobrevivência de alguns países.”

Ela disse esperar, por outro lado, que o relatório mostre que existem tecnologias maduras o suficiente para serem adotadas sem a necessidade de recorrer a esquemas mirabolantes.

“Acho que há espaço para começarmos a pensar em alternativas”, afirmou, lembrando que, quanto mais carbono cortarmos rápido, menos teremos necessidade dessas novas tecnologias.

Em entrevista ao OC, concedida dois dias depois de voltar do encontro do IPCC na Tailândia e minutos antes de embarcar para outra reunião, na Noruega, Thelma Krug falou sobre suas expectativas para o relatório e sobre os bastidores da negociação para fechar seu escopo – que opôs, para surpresa de ninguém, as nações insulares e a petroleira Arábia Saudita.

A sra. coordenou o comitê científico que definiu o índice temas que serão tratados no relatório do IPCC sobre os impactos de um aquecimento de 1,5oC. A entrega dessa coordenação a uma cientista de um País em desenvolvimento foi deliberada?

O IPCC decidiu fazer três relatórios especiais neste ciclo: um sobre 1,5oC, um sobre oceanos e um sobre terra. O presidente do IPCC [o coreano Hoesung Lee] achou por bem que se formasse um comitê científico e cada um dos vice-presidentes seria responsável por um relatório especial. Então ele me designou para o de 1,5oC, designou a Ko Barrett [EUA] para o de oceanos e o Youba [Sokona, Mali] para o de terra. O comitê foi formado para planejar o escopo: número de páginas, título, sugestões para cada capítulo. E morreu ali. Por causa da natureza do relatório, que será feito no contexto do desenvolvimento sustentável e da erradicação da pobreza, houve também a participação de duas pessoas da área de ciências sociais, de fora do IPCC. Agora, no começo de novembro, sai uma chamada para nomeações. Serão escolhidos autores principais, coordenadores de capítulos e revisores.

Quantas pessoas deverão produzir o relatório?

No máximo cem. Considerando que vai ter gente do birô também. Todo o birô do IPCC acaba envolvido, são 30 e poucas pessoas, que acabam aumentando o rol de participantes.

A sra. vai participar?

Participarei, e participarei bastante. Os EUA fizeram um pedido para que o presidente do comitê científico tivesse um papel de liderança no relatório. Isso porque, para esse relatório, eu sinto algo que eu não sentia tanto para os outros: se não fosse eu acho que seria difícil. Porque teve muita conversa política.

Quando um país levanta uma preocupação, eu tenho de entender mais a fundo onde a gente vai ter que ter flexibilidade para construir uma solução. Eu acho que foi muito positivo o fato de o pessoal me conhecer há muitos anos e de eu ter a liberdade de conversar com uma Arábia Saudita com muita tranquilidade, de chegar para as pequenas ilhas e conversar com muita tranquilidade e tentar resolver as preocupações.

Por exemplo, quando as pequenas ilhas entraram com a palavra loss and damage [perdas e danos], para os EUA isso tem uma conotação muito política, e inaceitável para eles no contexto científico. No fórum científico, tivemos de encontrar uma forma que deixasse as pequenas ilhas confortáveis sem mencionar a expressão loss and damage, mas captando com bastante propriedade aquilo que eles queriam dizer com isso. Acabou sendo uma negociação com os autores, com os cientistas e com o pessoal do birô do painel para chegar numa acomodação que deixasse a todos satisfeitos.

E qual era a preocupação dos sauditas?

Na reunião anterior, que definiu o escopo do trabalho, a gente saiu com seis capítulos bem equilibrados entre a parte de ciências naturais e a parte de ciência social. Por exemplo, essa parte de desenvolvimento sustentável, de erradicação da pobreza, o fortalecimento do esforço global para tratar mudança do clima. E os árabes não queriam perder esse equilíbrio. E as pequenas ilhas diziam que o convite da Convenção foi para fazer um relatório sobre impactos e trajetórias de emissões.

Mas as ilhas estavam certas, né?

De certa maneira, sim. O que não foi certo foi as ilhas terem aceitado na reunião de escopo que o convite fosse aceito pelo IPCC “no contexto de fortalecer o esforço global contra a ameaça da mudança climática, do desenvolvimento sustentável e da erradicação da pobreza”.

Eles abriram o escopo.

A culpa não foi de ninguém, eles abriram. A partir do instante em que eles abriram você não segura mais. Mas isso requereu também um jogo de cintura para tirar um pouco do peso do desenvolvimento sustentável e fortalecer o peso relativo dos capítulos de impactos e trajetórias de emissões.

Essa abertura do escopo enfraquece o relatório?

Não. Porque esse relatório vai ter 200 e poucas páginas, e cem delas são de impactos e trajetórias. Alguns países achavam que já havia muito desenvolvimento sustentável permeando os capítulos anteriores, então por que você ia ter um capítulo só para falar de desenvolvimento sustentável? Esse capítulo saiu de 40 páginas para 20 para justamente fortalecer a contribuição relativa de impactos e trajetórias do relatório. E foi uma briga, porque as pequenas ilhas queriam mais um capítulo de impactos e trajetórias. Esse relatório é mais para eles. Acima de qualquer coisa, os mais interessados nesse relatório são as pequenas ilhas.

Um dos desafios do IPCC com esse relatório é justamente encontrar literatura sobre 1,5oC, porque ela é pouca. Em parte porque 1,5oC era algo que as pessoas não imaginavam que seria possível atingir, certo?

Exato.

Porque o sistema climático tem uma inércia grande e as emissões do passado praticamente nos condenam a 1,5oC. Então qual é o ponto de um relatório sobre 1,5oC?

O ponto são as emissões negativas. O capítulo 4 do relatório dirá o que e como fazer. Faremos um levantamento das tecnologias existentes e emergentes e a agilidade com que essas tecnologias são desenvolvidas para estarem compatíveis em segurar o aumento da temperatura em 1.5oC. Vamos fazer uma revisão na literatura, mas eu não consigo te antecipar qualquer coisa com relação à forma como vamos conseguir ou não chegar a essas emissões negativas. Mas é necessário: sem elas eu acho que não dá mesmo.

A sra. acha, então, que as emissões negativas podem ser uma das grandes mensagens desse novo relatório…

Isso já ocorreu no AR5 [Quinto Relatório de Avaliação do IPCC, publicado em 2013 e 2014]. Porque não tinha jeito, porque você vai ter uma emissão residual. Só que no AR5 não tínhamos muita literatura disponível.

Quando se vai falar também da velocidade com a qual você consegue implementar essas coisas… o relatório também toca isso aí no contexto atual. Mas, no sufoco, essas coisas passam a ter outra velocidade, concorda? Se você demonstrar que a coisa está ficando feia, e está, eu acho que isso sinaliza para o mundo a necessidade de ter uma agilização maior no desenvolvimento e na implementação em larga escala de tecnologias que vão realmente levar a emissões negativas no final deste século.

Nós temos esse tempo todo?

Para 1,5oC é bem complicado. Em curto prazo, curtíssimo prazo, você precisa segurar as emissões, e aí internalizar o que você vai ter de emissões comprometidas. De tal forma que essas emissões comprometidas estariam sendo compensadas pelas tecnologias de emissões negativas. Esse é muito o meu pensamento. Vamos ver como isso acabará sendo refletido no relatório em si.

Haverá cenários específicos para 1,5oC rodados pelos modelos climáticos?

Tem alguma coisa nova, mas não tem muita coisa. Eles devem usar muita coisa que foi da base do AR5, até porque tem de ter comparação com 2oC. A não ser que rodem de novo para o 2oC. Precisamos entender o que existe de modelagem nova e, se existe, se ela está num nível de amadurecimento que permita que a gente singularize esses modelos para tratar essa questão nesse novo relatório.

Há cerca de 500 cenários para 2oC no AR5, e desses 450 envolvem emissões negativas em larga escala.

Para 1,5oC isso vai aumentar. Para 1,5oC vai ter de acelerar a redução de emissões e ao mesmo tempo aumentar a introdução de emissões negativas nesses modelos.

Há alguns dias o climatologista Kevin Anderson, diretor-adjunto do Tyndall Centre, no Reino Unido, publicou um comentário na revista Science dizendo que as emissões negativas eram um “risco moral por excelência”, por envolver competição por uso da terra, tecnologias não testadas e que vão ter de ser escaladas muito rápido. A sra. concorda?

Eu acho que essa questão de geoengenharia é uma das coisas que vão compor essa parte das emissões negativas. E aí talvez ele tenha razão: o mundo fica assustado com as coisas que vêm sendo propostas. Porque são coisas loucas, sem o amadurecimento necessário e sem a maneira adequada de se comunicar com o público. Mas vejo também que haverá tempo para um maior amadurecimento disso.

Mas concordo plenamente que ficamos numa situação muito desconfortável com várias tecnologias e metodologias que estão sendo propostas para emissões negativas. Mas esse é meu ponto de vista. Agora, numa situação em que você não tem uma solução a não ser esta, aí vai ser uma decisão moral. Porque aí você vai ter dilema com as pequenas ilhas, você vai ter um problema de sobrevivência de alguns países.

Deixe-me ver se entendi o seu ponto: a sra. acha que há um risco de essas tecnologias precisarem ser adotadas e escaladas sem todos os testes que demandariam num cenário ideal?

Fica difícil eu dizer a escala disso. Sem a gente saber o esforço que vai ser possível fazer para cortar emissões em vez de ficar pensando em compensar muito fortemente o residual, fica difícil dizer. Pode ser que já haja alguma tecnologia amadurecida antes de começar a pensar no que não está amadurecido. Acho que há espaço para começarmos a pensar em alternativas.

Agora, entre você falar: “Não vou chegar a 1,5oC porque isso vai exigir implementar tecnologias complicadas e que não estão amadurecidas” e isso ter uma implicação na vida das pequenas ilhas… isso também é uma preocupação moral. É um dilema. Eu tenho muita sensibilidade com a questão de geoengenharia hoje. E não sou só eu. O IPCC tem preocupação até em tratar esse tema. Mas é a questão do dilema. O que eu espero que o relatório faça é indicar o que precisa ser feito. Na medida em que você vai fazendo maiores reduções, você vai diminuindo a necessidade de emissões negativas. É essa análise de sensibilidade que os modelos vão fazer.

Observatório do Clima

Cientistas propõem projeto para criar genoma humano sintético (O Globo)

O Globo, 02/06/2016

Imagem de reprodução de DNA de hélice quádrupla – Divulgação/Jean-Paul Rodriguez

WASHINGTON — Um grupo de cientistas propôs, nesta quinta-feira, um projeto ambicioso para criar um genoma humano sintético, que tornaria possível a criação de seres humanos sem a necessidade de pais biológicos. Esta possibilidade levanta polêmica sobre o quanto a vida humana pode ou deve ser manipulada.

O projeto, que surgiu em uma reunião de cientistas da Universidade Harvard, nos EUA, no mês passado, tem como objetivo desenvolver e testar o genoma sintético em células dentro de laboratório ao longo de dez anos. O genoma sintético humano envolve a utilização de produtos químicos para criar o DNA presente nos cromossomas humanos. A meta foi relatada na revista “Science” pelos 25 especialistas envolvidos.

Os cientistas propuseram lançar, ainda este ano, o que chamaram de Projeto de Escrita do Genoma Humano e afirmaram que iriam envolver o público nessa discussão, que incluiria questões éticas, legais e sociais.

Os especialistas esperam arrecadar US$ 100 milhões — o equivalente a R$ 361 milhões — em financiamento público e privado para lançar o projeto este ano. No entanto, eles consideram que os custos totais serão inferiores aos US$ 3 milhões utilizados no Projeto do Genoma Humano original, que mapeou pela primeira vez o DNA humano.

O novo projecto “incluirá a engenharia completa do genoma de linhas de células humanas e de outros organismos importantes para a agricultura e saúde pública, ou aqueles que interpretar as funções biológicas humanas”, escreveram na “Science” os 25 cientistas, liderados pelo geneticista Jef Boeke, do Centro Médico Langone, da Universidade de Nova York.

Justiça pré-científica (Folha de S.Paulo)

Editorial

18/10/2015  02h00

A situação é surreal. Decisões judiciais têm obrigado a USP a produzir e fornecer a pessoas com câncer uma substância cujos efeitos não são conhecidos, que não teve sua eficácia comprovada e, pior, jamais foi submetida a testes de segurança em seres humanos.

As liminares concedidas não só ignoram princípios básicos da pesquisa científica como também colocam em risco a vida dos mais de mil pacientes autorizados a receber um composto a respeito do qual praticamente nada se sabe.

Estudada por um professor do Instituto de Química da USP de São Carlos, a fosfoetanolamina só passou por experimentos em células e animais, nos quais mostrou algum potencial contra certos cânceres.

Noticia-se que o docente, seguro das possibilidades terapêuticas da substância –que não pode ser considerada um remédio–, a distribuía por conta própria. Em 2014, uma portaria da universidade interrompeu o fornecimento.

Iniciou-se, então, uma disputa judicial. Centenas de liminares determinando que a USP providenciasse a droga foram concedidas na primeira instância, mas, em setembro, terminaram suspensas pelo Tribunal de Justiça de São Paulo.

No começo de outubro, o ministro Luiz Edson Fachin, do Supremo Tribunal Federal, ordenou que um paciente recebesse cápsulas de fosfoetanolamina. Ato contínuo, o presidente do TJ-SP, José Renato Nalini, reconsiderou a suspensão de entrega da substância.

A argumentação dos magistrados denuncia profundo desconhecimento dos protocolos universalmente adotados para o desenvolvimento de fármacos.

Fachin, por exemplo, parece considerar o registro na Anvisa (Agência Nacional de Vigilância Sanitária) um detalhe desimportante. Não é. Trata-se de garantia de que a droga passou por todos os testes devidos –razão pela qual nem sequer há pedido de registro da fosfoetanolamina na agência.

Nalini, por sua vez, afirma que “não se podem ignorar os relatos de pacientes que apontam melhora no quadro clínico”. Ocorre que a ausência de testes controlados torna impossível saber se os alegados progressos decorreram de propriedades do composto.

Mais: sem as pesquisas apropriadas, não se podem descartar efeitos colaterais e graves problemas gerados pela interação com substâncias presentes em medicamentos.

Compreende-se que a luta contra o câncer leve pacientes a buscar todo tipo de tratamento –mas essa é uma questão individual. O Poder Judiciário, entretanto, ao decidir casos dessa natureza, não pode atropelar as normas de validação científica.

‘Não podemos brincar de Deus com as alterações no genoma humano’, alerta ONU (ONU)

Publicado em Atualizado em 07/10/2015

A modificação do código genético permite tratar doenças como o câncer, mas pode gerar mudanças hereditárias. UNESCO pede uma regulamentação clara sobre os procedimentos científicos e informação à população.

Foto: Flickr/ ynse

“Terapia genética poderia ser o divisor de águas na história da medicina e a alteração no genoma é sem dúvida um dos maiores empreendimentos da ciência em nome da humanidade”, afirmou a Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO) sobre um relatório publicado pelo Comitê Internacional de Bioética (IBC) nesta segunda-feira (5).

O IBC acrescentou, no entanto, que intervenções no genoma humano deveriam ser autorizadas somente em casos preventivos, diagnósticos ou terapêuticos que não gerem alterações para os descendentes. O relatório destaca também a importância da regulamentação e informação clara aos consumidores.

O documento ressaltou os avanços na possibilidade de testes genéticos em casos de doenças hereditárias, por meio da terapia genética, o uso de células tronco embrionárias na pesquisa médica e uso de clones e alterações genéticas para fins medicinais. São citadas também novas técnicas que podem inserir, tirar e corrigir o DNA, podendo tratar ou curar o câncer e outras doenças. Porém, estas mesmas técnicas também possibilitam mudanças no DNA, como determinar a cor dos olhos de um bebê, por exemplo.

“O grande medo é que podemos estar tentando “brincar de Deus” com consequências imprevisíveis” e no final precipitando a nossa própria destruição”, alertou o antigo secretário-geral da ONU, Kofi Annan em 2004, quando perguntado qual seria a linha ética que determinaria o limite das alterações no genoma humano. Para responder a essa questão, os Estados-membros da UNESCO adotaram em 2005 a Declaração Universal sobre Bioética e Direitos Humanos que lida com os dilemas éticos levantados pelas rápidas mudanças na medicina, na ciência e tecnologia.

“Nobres Selvagens” na Ilustríssima (Folha de S.Paulo) de domingo, 22 de fevereiro de 2015

Antropólogos, índios e outros selvagens

RICARDO MIOTO
ilustração ANA PRATA

22/02/2015  03h05

RESUMO Livro do antropólogo Napoleon Chagnon que aborda suas pesquisas entre os ianomâmis é lançado no Brasil. Em entrevista, autor, que direcionou sua carreira para uma interpretação evolutiva do comportamento indígena, fala sobre suas conclusões e comenta a recepção, muitas vezes negativa, de sua obra entre seus pares.

*

Sobre Napoleon Chagnon, 76, há só uma unanimidade: trata-se do pesquisador mais polêmico da antropologia contemporânea.É

Nesta entrevista, o americano –que lança agora no Brasil o livro “Nobres Selvagens: Minha Vida entre Duas Tribos Perigosas: os Ianomâmis e os Antropólogos” pelo selo Três Estrelas, do Grupo Folha– afirma que a antropologia brasileira representa o que há de mais atrasado no pensamento anticientífico nessa área.

Chagnon critica ainda alguns brasileiros ligados à temática indígena, como o líder ianomâmi Davi Kopenawa, “manipulado por antropólogos e ONGs”, e o cineasta José Padilha, autor do documentário “Segredos da Tribo”, que “deveria se limitar a filmar Robocop”.

Ana Prata

Chagnon estudou os ianomâmis do Brasil e, principalmente, da Venezuela a partir de 1964 e ao longo de 35 anos, em 25 viagens que totalizaram 5 anos entre os índios. Foi o pioneiro no contato com várias tribos isoladas, que acredita serem uma janela para as sociedades pré-históricas nas quais o gênero Homo viveu por milhões de anos.

Foi visto com antipatia por diversos colegas antropólogos por propor explicações darwinianas para o comportamento dos índios –e dos humanos em geral– e ao escrever, em 1968, um livro em que tratava amplamente da violência entre os índios e no qual, desde o título, “Yanomamö: The Fierce People” (sem tradução no Brasil), chamava os ianomâmis de “o povo feroz”. Despertou inimizades ao se afastar dos colegas antropólogos, que acreditava mais interessados em fazer política do que ciência, e se aproximar de geneticistas.

Foi em 1988, porém, que causou a fúria dos colegas, ao publicar na revista “Science” um estudo mostrando que os homens ianomâmis com assassinatos no currículo eram justamente os que tinham mais mulheres e descendentes. Em termos biológicos, a violência masculina e certo egoísmo humano seriam estratégias reprodutivas bem-sucedidas, ideia que desagradou fortemente seus colegas das humanidades.

O antropólogo sempre defendeu que os índios que estudou guerreavam movidos por uma insaciável vontade de capturar mulheres, enquanto os livros tradicionais de antropologia diziam que a guerra primitiva tinha motivos como a escassez de alimentos ou de terra.

Chagnon diz que seus críticos são marxistas movidos pela ideologia de que os conflitos humanos se explicam pela luta de classes ou por disputas materiais, e não por motivos mais animalescos, como a busca por sucesso sexual.

Ele afirma que nenhum colega pôde apontar falhas nos dados publicados na “Science”. No entanto, antropólogos questionam seu procedimento não só nesse caso como em outros trabalhos (leia ao lado).

Em 2000, o jornalista Patrick Tierney publicou o livro “Trevas no Eldorado” (lançado no Brasil em 2002, pela Ediouro), acusando Chagnon e colegas, entre outras coisas, de terem espalhado sarampo deliberadamente entre os índios. As acusações foram investigadas pela Associação Americana de Antropologia, que inocentou os pesquisadores da grave acusação.

Na entrevista abaixo, feita por telefone, Chagnon trata ainda de temas como a higiene dos índios e os riscos da selva.

*

Folha – O antropólogo Eduardo Viveiros de Castro criticou na internet a publicação do seu livro no Brasil, dizendo que o sr. está ligado à “direita boçalmente cientificista”.

Napoleon Chagnon – A ideia de que o comportamento humano tem uma natureza biológica, moldada pela evolução, além da cultura, sofreu muita oposição nas últimas décadas de quem tem uma visão marxista. Está havendo uma mudança de paradigma, mas os antropólogos brasileiros são o último reduto dessa oposição e sempre tentaram impedir meu trabalho.

Marxistas não gostam de explicações que não envolvam a luta por recursos materiais. Para eles, isso explica tudo. Eles diziam, por exemplo, que a causa da guerra entre os ianomâmis era a escassez de proteína –uma tribo atacaria a outra em busca de carne. Nossas observações mostraram, porém, que não havia correlação. Eles tinham abundância de proteína; lutavam, na verdade, por mulheres.

Nos EUA, cientistas importantes, como meu grande amigo Steven Pinker e o professor Jared Diamond, escreveram recentemente livros demonstrando a relevância crescente da psicologia evolutiva.

Os antropólogos latino-americanos me atacam, mas não têm dados para rebater as conclusões que proponho, porque não gostam de trabalho de campo. Eles gostam de argumentos teóricos, de ficar sentados nas suas cadeiras na universidade fazendo ativismo. No entanto, para entender o mundo, você tem de coletar informações a fim de testar suas previsões e teorias. Essa é a base do método científico. A tendência pós-modernista é dizer que não há verdade, que tudo é social ou político. Isso é a morte da ciência.

Esses críticos dizem que sua visão dos ianomâmis é muito negativa. Citam trechos do seu livro em que o sr. descreve criticamente os hábitos de higiene dos índios, dizendo que eles espalhavam muco em tudo.

Tenho muitas críticas à minha própria civilização também, como o excesso de filas. Os ianomâmis não têm uma teoria da transmissão de doenças via germes. Então assoam o nariz na mão e passam no cabelo, nos outros, até na minha bermuda [risos]. A primeira coisa que quis aprender na língua deles foi “não encoste em mim, suas mãos estão sujas”, mas não adiantou. Você se acostuma.

Na verdade, você percebe que há coisas mais sérias com que se preocupar. A vida na tribo é perigosa. Há muitas cobras. Um bebê de uma tribo ianomâmi em que vivi sumiu, e os pais concluíram que a única explicação era que tivesse sido comido por uma anaconda. Há ainda muitos insetos, há onças, muitos outros incômodos.

Como é a sua relação com o líder ianomâmi Davi Kopenawa?

Ele é manipulado pelos seus mentores, seus conselheiros políticos, a maioria antropólogos e ONGs, que dizem a ele o que ele deve declarar. Ouço que muitos jornalistas brasileiros têm essa percepção, mas sabem que é impopular dizer isso em público.

As entrevistas com ele costumam ser mediadas por antropólogos.

Pois é. Veja, em uma das minhas visitas aos ianomâmis no Brasil, Kopenawa proibiu o piloto do meu avião de utilizar o combustível que tinha guardado perto de uma das tribos em que ele tinha influência. Ele queria a todo custo que eu ficasse isolado na floresta, fez isso deliberadamente. O piloto teve de conseguir combustível com outros colegas. Essa é uma das razões que me levaram a não ter uma opinião muito positiva a respeito dele.

Kopenawa critica vocês por não devolverem amostras de sangue que coletaram entre os índios em 1967 para estudos científicos na área de genética e que foram parar em bancos de universidades dos EUA.

Sou simpático a esse pedido. Mas essas amostras são 99% de tribos venezuelanas, não brasileiras. Seria horrível se entregássemos tal sangue para os ianomâmis brasileiros, como Kopenawa. Uma tribo ficaria muito assustada de saber que seus vizinhos têm o sangue de seus ancestrais, eles acreditam que isso poderia ser utilizado para fazer magia negra, por exemplo.

É importante dizer que, influenciadas por antropólogos, lideranças ianomâmis tornaram impossível hoje, para qualquer pesquisador, ir a suas tribos e coletar amostras de sangue; foram convencidos de que isso foi um crime terrível que cometemos. Dessa forma, nenhum pesquisador da área biomédica pode agora fazer estudos que envolvam coleta de amostras. Os ianomâmis vetaram para sempre qualquer pesquisa que possa beneficiar a sua saúde e dependa de exames de sangue.

Eu gosto muito dos ianomâmis. Fiquei muitos anos com eles. Eles merecem ser mais bem representados. É nítido que eles precisam de instituições que permitam acesso à medicina moderna, por exemplo. Eles precisam de ajuda.

De qualquer forma, eu não coletei amostras de sangue. Eu só ajudei os médicos a fazê-lo. Eu sou antropólogo. Não estou nem aí para o que acontecerá com as amostras de sangue congeladas nos EUA. Mas seria irresponsável se fossem entregues aos índios errados.

O sr. assistiu ao documentário “Os Segredos da Tribo” (2010), do brasileiro José Padilha?

Padilha mentiu para mim, foi muito desonesto. Ele disse que faria um filme equilibrado, mas nunca mencionou que as acusações feitas contra mim foram completamente desmentidas [pela Associação Americana de Antropologia]. Ele contratou um missionário que falava a língua ianomâmi para fazer as entrevistas com os índios. Esse missionário, amigo meu, depois veio me avisar que Padilha direcionava as entrevistas contra mim, que tudo era feito para criar a impressão de que os ianomâmis me odiavam. O filme é ridículo.

Além disso, Padilha lançou o filme e desapareceu, nunca respondeu às minhas ligações. Na apresentação do filme no festival de Sundance, ele não só não me convidou como chamou três antropólogos inimigos meus para debater. Um deles, Terence Turner, que teve participação ativa na elaboração do filme, me acusava de ser o Mengele das tribos ianomâmis. É doentio. Padilha deveria se limitar a filmar “Robocop”.

Depois de trabalhar muitos anos nas universidades do Michigan e de Missouri, o sr. agora é professor aposentado. Aposentou-se também da pesquisa científica?

Não. Continuo trabalhando com os dados que coletei nas tribos ao longo desses anos todos. Estou para publicar vários artigos em revistas importantes, como a “Science”, mostrando o impacto de conceitos caros à biologia, como o parentesco, na organização das tribos ianomâmis. Se os antropólogos brasileiros não gostam do meu trabalho, ainda não viram nada [risos]. No caso do público brasileiro, espero que os leitores encontrem no meu livro agora publicado uma melhor compreensão da natureza humana, seja no comportamento dos povos indígenas ou no de um vizinho.

RICARDO MIOTO, 25, é editor de “Ciência” e “Saúde” da Folha.

ANA PRATA, 34, é artista plástica.

*   *   *

Livro contribui para distanciar ciências humanas e biológicas

André Strauss

22/02/2015  03h09

Por sua alegada coragem em sustentar hipóteses fundamentadas em princípios darwinianos, o antropólogo americano Napoleon Chagnon, que dedicou sua carreira a estudar a violência entre os índios ianomâmis, apresenta-se em “Nobres Selvagens” [trad. Isa Mara Lando, Três Estrelas, 608 págs., R$ 89,90] como vítima dos mais diversos ataques e preconceitos por parte de seus pares.

Os antropólogos culturais, os religiosos salesianos, os ativistas políticos e os próprios ianomâmis são retratados como grupos ferozes ou biofóbicos. Já Chagnon seria apenas um inocente antropólogo de Michigan. A tese não convence.

Embora o antropólogo pretenda ser um expoente da síntese entre biologia e antropologia, suas proposições são bastante limitadas e, muitas vezes, equivocadas. Exemplo disso é partir do princípio de que uma sociedade não contatada é o mesmo que uma sociedade não impactada, atribuindo aos ianomâmis condição análoga à de sociedades paleolíticas. Propor um contratualismo hobbesiano baseado na luta por mulheres também soa ingênuo.

Em seu livro, Napoleon Chagnon insiste na noção anacrônica de “ciência pura”, desmerecendo a militância pró-indígena dos antropólogos brasileiros como um capricho do politicamente correto.

Mesmo reconhecendo-se que em diversas ocasiões seus detratores exageraram, esse tipo de postura maniqueísta do autor não contribui para a necessária superação dos conflitos epistemológicos e políticos que seguem existindo, ainda que ligeiramente mitigados, entre as chamadas ciências humanas e biológicas.

Um famoso filósofo darwiniano certa vez reconheceu que as teorias antropológicas de cunho biológico têm, inegavelmente, o péssimo hábito de atrair os mais indesejáveis colaboradores. Daí a importância da cada vez maior politização dos bioantropólogos e o movimento explícito por parte deles para impedir que esses associados participem de seus círculos.

Ainda assim, provavelmente Chagnon não é culpado das acusações mais graves que lhe foram imputadas, tal como a de disseminar propositalmente uma epidemia de sarampo entre os indígenas ou a de incentivar, por escambo, que eles declarassem guerras uns contra os outros a fim de que ele pudesse incluir as cenas de violência em um documentário que estava produzindo.

Por outro lado –e isso não se pode negar a Chagnon–, é verdade que as humanidades muitas vezes parecem apresentar aquilo que se convencionou chamar de um “desejo irresistível para a incompreensão”, resultando em acusações injustas e de caráter persecutório.

Algumas décadas atrás, ainda era possível negar a relevância de campos como a genética comportamental, a ecologia humana, a neurociência cognitiva ou a etologia de grandes símios. Atualmente, entretanto, qualquer tentativa de mantê-los fora da esfera antropológica é um exercício vão.

Mais importante, a estratégia comumente utilizada no passado de atrelar os desdobramentos oriundos dessas áreas a implicações nefastas para a dignidade humana, torna-se, além de injusta, muito perigosa.

Juntos, antropólogos e biólogos precisam elaborar uma narrativa capaz de ressignificar esses novos elementos através de uma ótica benigna. Afinal, eles passarão, inevitavelmente, a fazer parte do arcabouço teórico de ambas as disciplinas.

ANDRÉ STRAUSS, 30, é antropólogo do Laboratório de Estudos Evolutivos Humanos da USP e do Instituto Max Planck de Antropologia Evolutiva, na Alemanha.

*   *   *

Trajetória do pesquisador é marcada por querelas

Marcelo Leite

22/02/2015  03h13

Não é trivial resumir as objeções que a antropologia cultural levanta contra Napoleon Chagnon. A controvérsia tem quase meio século, e a tarefa fica mais complicada quando muitos dos antropólogos relevantes do Brasil se recusam a dar entrevistas sobre o caso.

O panorama se turvou de vez em 2000, com o livro “Trevas no Eldorado”. Nele o jornalista Patrick Tierney acusava Chagnon e o médico James Neel de, em 1968, terem causado uma epidemia de sarampo entre os ianomâmis da Venezuela e experimentado nos índios um tipo perigoso de vacina, além de negar-lhes socorro médico.

Chagnon e Neel foram depois inocentados dessas acusações graves. Bruce Albert, antropólogo e crítico de Chagnon que trabalha há 36 anos com os ianomâmis, já escreveu sobre a ausência de fundamento das alegações de Tierney.

Ana Prata

Nem por isso Albert deixa de assinalar sérios erros éticos da dupla. Para ele, os ianomâmis foram usados, sem saber, como grupo de controle para estudos sobre efeitos de radiação nuclear no sangue de sobreviventes de bombardeios em Hiroshima e Nagasaki.

Chagnon, capataz de Neel na expedição, obtinha amostras de sangue em troca de machados, facões e panelas. Embora essa prática perdurasse nos anos 1960-70, Albert ressalva que regras exigindo consentimento informado já vigiam desde 1947 (Código de Nuremberg) e 1964 (Declaração de Helsinque).

Os reparos ao trabalho de Chagnon abarcam também a própria ciência. Ele se diz superior aos antropólogos tradicionais, que acusa de relativistas pós-modernos, xingamento comum nos setores cientificistas da academia americana.

A polêmica teve início com o livro “Yanomamö: The Fierce People”, em que Chagnon apresentou sua tese de que ianomâmis são uma relíquia ancestral da espécie humana: selvagens com compulsão pela guerra como forma de obter mulheres, escassas devido à prática do infanticídio feminino.

Os críticos da etnografia de Chagnon afirmam que ele nunca comprovou o infanticídio seletivo. Com efeito, a explicação foi abandonada em outros estudos, como um famigerado artigo de 1988 no periódico científico “Science”.

O trabalho recorre a dados demográficos coletados por Chagnon para corroborar sua noção, bem ao gosto da sociobiologia, de que os homens mais violentos eram os que tinham mais mulheres e filhos. Esses seriam os que os ianomâmis chamam “unokai” –segundo o autor, os mais temidos no grupo (e, por isso, mais prolíficos).

Albert, Jacques Lizot e outros antropólogos consideram que ele misturou alhos com bugalhos. “Unokai” não seria um atributo individual, mas o estado de impureza (simbólica) daquele que mata alguém com armas ou feitiçaria, ou mesmo só entra em contato com o sangue de cadáveres de inimigos.

Além disso, em incursões contra outras aldeias, os guerreiros muitas vezes dão golpes e flechadas em adversários já mortos. Isso os tornaria “unokai”, não homicidas.

Os mais admirados não seriam esses, mas os “waitheri”, algo como “valorosos”, que se distinguem não só pela valentia, mas também pela capacidade de liderar, de falar bem, até pelo humor.

Não bastasse isso, os críticos apontam manipulação de números. Para inflar seus dados e chegar a 44% de homens que teriam participado de mortes e tinham até o triplo de filhos na comparação com os não “unokai”, Chagnon teria excluído da amostra jovens de 20 a 25 anos e homens mortos –violentos ou não, com ou sem filhos.

Em fevereiro de 2013, o antropólogo Marshall Sahlins renunciou à Academia Nacional de Ciências dos EUA após o ingresso de Chagnon. Num artigo em que explicava o ato, defendeu que um antropólogo alcança entendimento superior de outros povos quando toma seus integrantes como semelhantes –e não objetos naturais, “selvagens”, ao modo de Chagnon.

“É claro que esse não é o único meio de conhecer os outros. Podemos também utilizar nossa capacidade simbólica para tratá-los como objetos físicos”, escreveu. “Mas não obteremos o mesmo conhecimento dos modos simbolicamente ordenados da vida humana, do que é a cultura, ou até a mesma certeza empírica.”

MARCELO LEITE, 57, é repórter especial e colunista da Folha.

*   *   *

Morte sistemática de Ianomâmis é um tabu

Leão Serva

23/02/2015  02h00

Folha publicou com grande destaque na edição de domingo (22) a notícia do lançamento do livro “Nobres Selvagens” (pela Três Estrelas, selo do Grupo Folha), de autoria do antropólogo norte-americano Napoleon Chagnon. Títulos na capa e no caderno da Ilustríssima chamaram a obra de “livro tabu”.

Trata-se de um exagero baseado no discurso persecutório do autor, que sempre responde às críticas a seu trabalho com alegações de perseguição pessoal ou boicote. Uma pesquisa no Google News apresenta 872 respostas com notícias sobre o antropólogo e 64 referências ao livro, incluindo veículos de grande prestígio internacional como “The New York Times” e “Washington Post”.

No Brasil, certamente a obra não foi tema de reportagens simplesmente porque não havia sido lançada.

Na edição, textos de Marcelo Leite e André Strauss compilam as principais fragilidades apontadas pelos críticos da obra de Chagnon.

Uma bem importante, no entanto, não foi mencionada: o antropólogo dá pouca importância ao caráter simbólico das expressões da cultura que aparecem nos depoimentos de índios (e de brancos também, é bom que se diga), o que o leva a tomar o que ouve literalmente. Assim, em sua entrevista, é quase infantil a descrição dos perigos de uma aldeia Ianomâmi. Os medos que Chagnon menciona que concentrariam a atenção dos índios para longe dos cuidados médicos (risco de onças e cobras) são próprios de um alienígena. Já os índios criam cobras em casa para comer ratos; sabem que onças têm medo dos homens e, em situações raras, quando se aproximam furtivamente da periferia da aldeia para tocaiar uma criança, logo são capturadas pelos índios, como eu mesmo testemunhei. Não quer dizer que não haja medo, mas o antropólogo o amplifica para reforçar o estereótipo de atraso.

A história de que um casal ianomâmi teria atribuído o desaparecimento de seu filhinho a uma anaconda esfomeada é bizarra: o bebê na aldeia não fica um minuto longe dos outros e uma sucuri no lento processo de engolir uma criança seria vista por dúzias de pessoas e morta. Chagnon certamente não entendeu o que lhe foi dito ou tomou por verdade uma mentira (vale lembrar que um “civilizado” banqueiro suíço também mente).

Em texto mais antigo, Chagnon apontava o gesto de bater no peito, comum em festas de ianomâmis como expressão da violência da cultura desses grupos. Ora, o mesmo movimento pode ser encontrado diariamente em culturas mais “evoluídas”, segundo seu critério, das grandes cidades da Europa e dos EUA (nas missas católicas quando se diz “Minha culpa, minha culpa, minha máxima culpa”) à Mesopotâmia, berço das civilizações (onde soldados contemporâneos reproduzem o gesto antes de ataques de infantaria). Chagnon não leva em conta o alicerce básico do estudo da antropologia, que as culturas humanas são simultâneas, embora diferentes na expressão material.

Por fim, para desfazer as críticas feitas pelo líder Davi Kopenawa, criou a história de que ele é manipulado por antropólogos. A Folha parte dessa premissa para questionar Chagnon: “As entrevistas com ele costumam ser mediadas por antropólogos”, ao que o autor diz: “Pois é”, e segue sua catilinária.

Trata-se de uma inverdade que qualquer repórter que fale bem português ou ianomâmi pode comprovar. Eu entrevistei Kopenawa três vezes em épocas e lugares diferentes, duas delas sem aviso prévio. Me aproximei, pedi para falar e conversamos sem mediação. Uma vez, em seu escritório em Boa Vista, ele pediu que outras pessoas (que eu não conhecia, índios e brancos) saíssem da sala para ser entrevistado. Fala fluentemente um português simples (de brasileiro não universitário) com forte sotaque. É preciso ter calma e prestar atenção, por vezes pedir que repita para entender a pronúncia de algumas palavras.

A última vez que o encontrei foi numa entrevista para a revista Serafina, com hora marcada. Também ficou só, enquanto eu estava acompanhado da jovem fotógrafa Helena Wolfenson, da Folha. É possível que estrangeiros que falem mal ou não falem português precisem de tradutor. E são certamente raras as pessoas que falam português, ianomâmi e línguas estrangeiras. Talvez daí a história de que ele se faça acompanhar de “antropólogos” ou gente de ONG.

*

O que de fato é um “tabu” (aquilo de que não se fala) na imprensa brasileira é o lento processo de abandono dos Ianomâmi à morte, em curso por incompetência ou (depois de tanto tempo) decisão do governo federal.

Como noticiei nesta coluna em maio do ano passado, as mortes de Ianomâmi por problemas de saúde cresceram nos dois governos do PT (Lula e Dilma). Muitas das doenças são simples de evitar, como provam as estatísticas da segunda metade dos anos 1990.

O aumento se deve em grande medida à interrupção dos trabalhos de medicina preventiva nas aldeias e ao crescimento dos gastos com transporte dos doentes das aldeias para a capital de Roraima, Boa Vista.

A maior parte dos custos do Ministério da Saúde com a saúde indígena em Roraima tem sido despejada em frete de aviões para levar índios a Boa Vista. São poucas as empresas de táxi aéreo, as mesmas que levam políticos locais em seus deslocamentos.

Em janeiro do ano passado, quando a entrevistei, a coordenadora do Ministério da Saúde para as áreas indígenas de Roraima, Maria de Jesus do Nascimento, explicou o aumento das mortes dizendo: “Não, dinheiro não falta… Foi problema de gestão, mesmo”.

Na área Ianomâmi, uma médica cubana do programa Mais Médicos se desesperava: “Não tenho antibióticos, não tenho oxigênio, não tenho equipamentos”. Eu perguntei o que fazia: “Não quero mas sou forçada a mandar os índios de avião para Boa Vista”. O meio se tornou o fim. A saúde dos índios se tornou desculpa para enriquecer as empresas de táxi aéreo.

Quem procura no mesmo Google News notícias sobre as mortes de Ianomâmi pela improbidade dos órgãos de saúde local só encontra quatro notícias, uma delas do espanhol El País, as demais noticiando os protestos dos índios e um debate no Congresso.

Esse genocídio lento e discreto é o verdadeiro tabu.

How to train a robot: Can we teach robots right from wrong? (Science Daily)

Date: October 14, 2014

Source: Taylor & Francis

Summary: From performing surgery and flying planes to babysitting kids and driving cars, today’s robots can do it all. With chatbots such as Eugene Goostman recently being hailed as “passing” the Turing test, it appears robots are becoming increasingly adept at posing as humans. While machines are becoming ever more integrated into human lives, the need to imbue them with a sense of morality becomes increasingly urgent. But can we really teach robots how to be good?


From performing surgery and flying planes to babysitting kids and driving cars, today’s robots can do it all. With chatbots such as Eugene Goostman recently being hailed as “passing” the Turing test, it appears robots are becoming increasingly adept at posing as humans. While machines are becoming ever more integrated into human lives, the need to imbue them with a sense of morality becomes increasingly urgent. But can we really teach robots how to be good?

An innovative piece of research recently published in the Journal of Experimental & Theoretical Artificial Intelligence looks into the matter of machine morality, and questions whether it is “evil” for robots to masquerade as humans.

Drawing on Luciano Floridi’s theories of Information Ethics and artificial evil, the team leading the research explore the ethical implications regarding the development of machines in disguise. ‘Masquerading refers to a person in a given context being unable to tell whether the machine is human’, explain the researchers — this is the very essence of the Turing Test. This type of deception increases “metaphysical entropy,” meaning any corruption of entities and impoverishment of being; since this leads to a lack of good in the environment — or infosphere — it is regarded as the fundamental evil by Floridi. Following this premise, the team set out to ascertain where ‘the locus of moral responsibility and moral accountability’ lie in relationships with masquerading machines, and try to establish whether it is ethical to develop robots that can pass a Turing test.

Six significant actor-patient relationships yielding key insights on the matter are identified and analysed in the study. Looking at associations between developers, robots, users and owners, and integrating in the research notable examples, such as Nanis’ Twitter bot and Apple’s Siri, the team identify where ethical accountabilities lie — with machines, humans, or somewhere in between?

But what really lies behind the robot-mask, and is it really evil for machines to masquerade as humans? ‘When a machine masquerades, it influences the behaviour or actions of people [towards the robot as well as their peers]’, claim the academics. Even when the disguise doesn’t corrupt the environment, it increases the chances of evil as it becomes harder for individuals to make authentic ethical decisions. Advances in the field of artificial intelligence have outpaced ethical developments and humans are now facing a new set of problems brought about by the ever-developing world of machines. Until these issues are properly addressed, the question whether we can teach robots to be good remains open.

Journal Reference:

  1. Keith Miller, Marty J. Wolf, Frances Grodzinsky. Behind the mask: machine morality. Journal of Experimental & Theoretical Artificial Intelligence, 2014; 1 DOI:10.1080/0952813X.2014.948315

Concea abre consulta pública para guia de uso de animais (MCTI)

Sociedade pode sugerir mudanças em propostas de manuais para pesquisa e ensino com primatas e estudos clínicos fora das instalações convencionais.

O Conselho Nacional de Controle de Experimentação Animal (Concea) abriu nesta quinta-feira (25), ao publicar  no Diário Oficial da União (DOU), uma consulta pública de 21 dias para dois capítulos do Guia Brasileiro de Produção e Utilização de Animais para Atividades de Ensino ou Pesquisa Científica.

Aprovado por etapas, o guia em elaboração contempla tópicos destinados a aves, cães, gatos, lagomorfos (como coelhos e lebres) e roedores, entre outros grupos taxonômicos.

Os capítulos sob consulta tratam de “primatas não humanos” e “estudos clínicos conduzidos a campo”. Sugestões de mudanças nos textos devem ser detalhadas e justificadas por meio do preenchimento de formulários disponíveis na página do conselho e, então, encaminhadas ao endereço eletrônico consultapubl.concea@mcti.gov.br.

“Essa participação da sociedade é importante porque o guia será a base para a definição dos requisitos necessários para a solicitação do licenciamento de atividades de pesquisa e ensino com animais, sem o qual o uso de determinada espécie não será permitido, conforme estabelecido na Lei Arouca”, destaca o coordenador do Concea, José Mauro Granjeiro.

Os dois capítulos devem incorporar considerações da sociedade antes da 26ª Reunião Ordinária do Concea, em 26 e 27 de novembro, quando a instância colegiada planeja apreciar o conteúdo e aprovar os documentos finais, a serem publicados no DOU. Nos meses seguintes, outros trechos do guia têm previsão de passar por consulta pública, abrangendo outros grupos taxonômicos como peixes, ruminantes, equinos, suínos, répteis e anfíbios.

Também nesta quinta, foi publicada uma lista com 17 métodos para substituir ou reduzir o uso de animais em testes toxicológicos. Divididos em sete grupos, as técnicas servem para medir o potencial de irritação e corrosão da pele e dos olhos, fototoxicidade, absorção e sensibilização cutânea, toxicidade aguda e genotoxicidade.

Primatas – Com 73 páginas, o capítulo acerca de primatas não humanos aborda a relevância desse conjunto de animais em análises sobre doenças virais e pesquisas biomédicas. O texto associa a “estreita relação filogenética com o homem” à utilização para estudos comparativos em enfermidades humanas.

O guia detalha requisitos mínimos para as instalações, da estrutura física dos alojamentos às áreas de criação e experimentação, passando por condições ambientais, além de procedimentos de manejo, como alimentação adequada, higienização de gaiolas e objetos, formas de contenção física, enriquecimento ambiental e medicina preventiva. Métodos experimentais, cuidados veterinários e princípios de bem-estar animal também compõem o capítulo sobre primatas.

“De uma forma geral, independentemente da finalidade da criação de primatas, o alojamento deve ser composto por um recinto complexo e estimulante, que promova a boa saúde e o bem-estar psicológico e que forneça plena oportunidade de interação social, exercício e manifestação a uma variedade de comportamentos e habilidades inerentes à espécie”, indica o texto. “O recinto satisfatório deve fornecer aos animais um espaço suficiente para que eles mantenham seus hábitos normais de locomoção e de comportamento”.

Estudos a campo – A intenção do outro documento sob consulta pública é orientar pesquisadores e definir requisitos mínimos necessários para a condução de “estudos clínicos conduzidos a campo” – aqueles realizados fora das instalações de uso animal –, quanto a aspectos éticos ligados ao manejo e ao bem-estar das espécies.

“Considerando que uma das missões do Concea é garantir que os animais utilizados em qualquer tipo de pesquisa científica tenham sua integridade e bem-estar preservados, a condução dos estudos fora dos ambientes controlados das instalações para utilização de animais em atividades de ensino ou pesquisa devem se adequar às regras aplicáveis”, afirma o guia.

Criado em 2008, o Concea é uma instância colegiada multidisciplinar de caráter normativo, consultivo, deliberativo e recursal. Dentre as suas competências destacam-se, além do credenciamento das instituições que desenvolvam atividades no setor, a formulação de normas relativas à utilização humanitária de animais com finalidade de ensino e pesquisa científica, bem como o estabelecimento de procedimentos para instalação e funcionamento de centros de criação, de biotérios e de laboratórios de experimentação animal.

(MCTI)

Number-crunching could lead to unethical choices, says new study (Science Daily)

Date: September 15, 2014

Source: University of Toronto, Rotman School of Management

Summary: Calculating the pros and cons of a potential decision is a way of decision-making. But repeated engagement with numbers-focused calculations, especially those involving money, can have unintended negative consequences.


Calculating the pros and cons of a potential decision is a way of decision-making. But repeated engagement with numbers-focused calculations, especially those involving money, can have unintended negative consequences, including social and moral transgressions, says new study co-authored by a professor at the University of Toronto’s Rotman School of Management.

Based on several experiments, researchers concluded that people in a “calculative mindset” as a result of number-crunching are more likely to analyze non-numerical problems mathematically and not take into account social, moral or interpersonal factors.

“Performing calculations, whether related to money or not, seemed to encourage people to engage in unethical behaviors to better themselves,” says Chen-Bo Zhong, an associate professor of organizational behavior and human resource management at the Rotman School, who co-authored the study with Long Wang of City University of Hong Kong and J. Keith Murnighan from Northwestern University’s Kellogg School of Management.

Participants in a set of experiments displayed significantly more selfish behavior in games where they could opt to promote their self-interest over a stranger’s after exposure to a lesson on a calculative economics concept. Participants who were instead given a history lesson on the industrial revolution were less likely to behave selfishly in the subsequent games. A similar but lesser effect was found when participants were first asked to solve math problems instead of verbal problems before playing the games. Furthermore, the effect could potentially be reduced by making non-numerical values more prominent. The study showed less self-interested behavior when participants were shown pictures of families after calculations.

The results may provide further insight into why economics students have shown more self-interested behavior in previous studies examining whether business or economics education contributes to unethical corporate activity, the researchers wrote.

The study was published in Organizational Behavior and Human Decision Processes.

Journal Reference:

  1. Long Wang, Chen-Bo Zhong, J. Keith Murnighan. The social and ethical consequences of a calculative mindset. Organizational Behavior and Human Decision Processes, 2014; 125 (1): 39 DOI: 10.1016/j.obhdp.2014.05.004

Money talks when it comes to acceptability of ‘sin’ companies, study reveals (Science Daily)

Date: July 30, 2014

Source: University of Toronto, Rotman School of Management

Summary: Companies who make their money in the ‘sin’ industries such as the tobacco, alcohol and gaming industries typically receive less attention from institutional investors and financial analysts. But new research shows social norms and attitudes towards these types of businesses are subject to compromise when their share price looks to be on the rise.


Companies who make their money in the “sin” industries such as the tobacco, alcohol and gaming industries typically receive less attention from institutional investors and financial analysts.

But new research shows social norms and attitudes towards these types of businesses are subject to compromise when their share price looks to be on the rise. A paper from the University of Toronto’s Rotman School of Management found that institutional shareholdings and analysts’ coverage of sin firms were low when firm performance was low but went up with rising performance expectations.

That suggests that market participants may ignore social norms and standards with the right financial reward.

“This is a way to test the trade-off between people’s non-financial and financial incentives. The boundary of people’s social norms is not a constant,” said researcher Hai Lu, an associate professor of accounting at the Rotman School. Prof. Lu co-wrote the paper with two former Rotman PhD students, McMaster University’s Kevin Veenstra and Yanju Liu, now with Singapore Management University.

The paper sheds light on why there can be a disconnect between the investment behaviour of Wall St. and the ethical expectations of ordinary people. It also suggests a worrisome implication that compromising one’s ethical values in the face of high financial rewards can become a social norm in itself.

On the brighter side, the paper also finds that strong social norms still have an influence over people’s behaviour. If social norms are strong enough and the price of ignoring them is high, this may act as a disincentive to disregard them in favour of other benefits.

This is the first study to examine whether the social acceptability of sin stocks can vary with financial performance. The researchers compared consumption and attitudinal data with information on sin firm stocks, analysts’ coverage and levels of institutional investment.

Journal Reference:

  1. Liu, Yanju and Lu, Hai and Veenstra, Kevin J. Is Sin Always a Sin? The Interaction Effect of Social Norms and Financial Incentives on Market Participants’ Behavior. Accounting, Organizations and Society, March 31, 2014 [link]

Animais: ciência em benefício da vida (O Globo)

JC e-mail 4993, de 21 de julho de 2014

Artigo de Paulo Gadelha e Wilson Savino publicado em O Globo

A percepção pública sobre as ciências e a capacidade de influenciar as políticas para seu desenvolvimento são condições essenciais da cidadania no mundo contemporâneo. Em especial, é no campo das implicações éticas que esse desafio se torna imperativo. A experimentação animal é, nesse sentido, um caso exemplar.

Nos anos recentes, temos convivido com rejeição de algumas parcelas da sociedade ao uso de animais na ciência. Muitas vezes, estes movimentos encontram ressonância também no ambiente jurídico. Existem grandes expectativas por um mundo em que o uso de animais para a experimentação científica não seja mais necessário. A comunidade científica também compartilha deste desejo. No entanto, nos argumentos que circulam, muita desinformação ainda vigora. Esclarecer o que é verdade e o que é mito se torna fundamental para que a sociedade possa se posicionar sobre o assunto.

No atual estágio da ciência mundial, e em particular no campo da saúde humana, o uso de animais permanece imprescindível para a elucidação de processos biológicos, a descoberta de novos medicamentos, vacinas e tratamentos para doenças. O aumento na expectativa e a melhoria na qualidade de vida que vemos na população se devem, em muito, às inovações médicas que dependeram e ainda dependem, em grande parte, do uso de animais.

Para o futuro, é impossível elucidar o funcionamento do cérebro , os mecanismos das doenças neurodegenerativas, a exemplo do Alzheimer, e garantir a eficácia e segurança de novos tratamentos para essas doenças que estarão cada vez mais presentes com o envelhecimento da população, sem a utilização de animais. O mesmo se aplica a uma multiplicidade de casos, entre os quais o Ebola e outras doenças emergentes.

Um mito muito comum é a ideia de que todas as pesquisas poderiam abrir mão do uso de animais. Apesar dos grandes esforços neste sentido, esta afirmativa não é verdade. A ciência tem investido no desenvolvimento de métodos alternativos, como o cultivo de células e tecidos e os modelos virtuais que recorrem à bioinformática para prever as reações dos organismos.

No entanto, ainda estamos longe de uma solução que reproduza de forma precisa as complexas interações do organismo: estes métodos são aplicáveis apenas em determinadas etapas da pesquisa e em situações específicas. A ciência brasileira também integra este empenho. Um exemplo disso é a criação do Centro Brasileiro de Validação de Métodos Alternativos (BraCVAM), que a Fiocruz lidera em parceria com a Agência Nacional de Vigilância Sanitária (Anvisa).

Outro mito comum é a ideia de que os cientistas utilizam animais de forma indiscriminada. Além do imperativo ético, o uso responsável e o foco no bem-estar dos animais é uma exigência legal. A ciência está submetida a diversas instâncias de regulamentação e a rigoroso controle das atividades de pesquisa. A redução do sofrimento por meio do uso de anestésicos e analgésicos, a escolha de técnicas adequadas e a necessidade de acompanhamento por veterinários são protocolos obrigatórios. Com foco na tríade substituição-redução-refinamento, o uso só é permitido quando não há alternativa conhecida, autorizando-se o menor número de animais necessário para resultados válidos e buscando-se, sempre que possível, o refinamento de técnicas e procedimentos para resultados mais precisos.

A sociedade tem protagonismo fundamental em cobrar que as instituições científicas pautem sua atuação na ética no uso de animais e é saudável para a democracia que esta vigilância atenta seja exercida. No entanto, parar a experimentação animal em pesquisas, hoje, significaria um retrocesso para a ciência e uma perda para a saúde da população e para o próprio campo da veterinária. Cabe aos pesquisadores e às instituições manterem seu compromisso de responsabilidade e ética com os animais, firmes no propósito de beneficiar a sociedade.

Paulo Gadelha é presidente da Fiocruz e Wilson Savino é diretor do Instituto Oswaldo Cruz.

(O Globo)

Artigo_OGLOBO14-07-2014

Mosquitos transgênicos no céu do sertão (Agência Pública)

Saúde

10/10/2013 – 10h36

por Redação da Agência Pública

armadilhas 300x199 Mosquitos transgênicos no céu do sertão

As armadilhas são instrumentos instalados nas casas de alguns moradores da área do experimento. As ovitrampas, como são chamadas, fazem as vezes de criadouros para as fêmeas. Foto: Coletivo Nigéria

Com a promessa de reduzir a dengue, biofábrica de insetos transgênicos já soltou 18 milhões de mosquitos Aedes aegypti no interior da Bahia. Leia a história e veja o vídeo.

No começo da noite de uma quinta-feira de setembro, a rodoviária de Juazeiro da Bahia era o retrato da desolação. No saguão mal iluminado, funcionavam um box cuja especialidade é caldo de carne, uma lanchonete de balcão comprido, ornado por salgados, biscoitos e batata chips, e um único guichê – com perturbadoras nuvens de mosquitos sobre as cabeças de quem aguardava para comprar passagens para pequenas cidades ou capitais nordestinas.

Assentada à beira do rio São Francisco, na fronteira entre Pernambuco e Bahia, Juazeiro já foi uma cidade cortada por córregos, afluentes de um dos maiores rios do país. Hoje, tem mais de 200 mil habitantes, compõe o maior aglomerado urbano do semiárido nordestino ao lado de Petrolina – com a qual soma meio milhão de pessoas – e é infestada por muriçocas (ou pernilongos, se preferir). Os cursos de água que drenavam pequenas nascentes viraram esgotos a céu aberto, extensos criadouros do inseto, tradicionalmente combatidos com inseticida e raquete elétrica, ou janelas fechadas com ar condicionado para os mais endinheirados.

Mas os moradores de Juazeiro não espantam só muriçocas nesse início de primavera. A cidade é o centro de testes de uma nova técnica científica que utiliza Aedes aegypti transgênicos para combater a dengue, doença transmitida pela espécie. Desenvolvido pela empresa britânica de biotecnologia Oxitec, o método consiste basicamente na inserção de um gene letal nos mosquitos machos que, liberados em grande quantidade no meio ambiente, copulam com as fêmeas selvagens e geram uma cria programada para morrer. Assim, se o experimento funcionar, a morte prematura das larvas reduz progressivamente a população de mosquitos dessa espécie.

A técnica é a mais nova arma para combater uma doença que não só resiste como avança sobre os métodos até então empregados em seu controle. A Organização Mundial de Saúde estima que possam haver de 50 a 100 milhões de casos de dengue por ano no mundo. No Brasil, a doença é endêmica, com epidemias anuais em várias cidades, principalmente nas grandes capitais. Em 2012, somente entre os dias 1º de janeiro e 16 de fevereiro, foram registrados mais de 70 mil casos no país. Em 2013, no mesmo período, o número praticamente triplicou, passou para 204 mil casos. Este ano, até agora, 400 pessoas já morreram de dengue no Brasil.

Em Juazeiro, o método de patente britânica é testado pela organização social Moscamed, que reproduz e libera ao ar livre os mosquitos transgênicos desde 2011. Na biofábrica montada no município e que tem capacidade para produzir até 4 milhões de mosquitos por semana, toda cadeia produtiva do inseto transgênico é realizada – exceção feita à modificação genética propriamente dita, executada nos laboratórios da Oxitec, em Oxford. Larvas transgênicas foram importadas pela Moscamed e passaram a ser reproduzidas nos laboratórios da instituição.

Os testes desde o início são financiados pela Secretaria da Saúde da Bahia – com o apoio institucional da secretaria de Juazeiro – e no último mês de julho se estenderam ao município de Jacobina, na extremidade norte da Chapada Diamantina. Na cidade serrana de aproximadamente 80 mil habitantes, a Moscamed põe à prova a capacidade da técnica de “suprimir” (a palavra usada pelos cientistas para exterminar toda a população de mosquitos) o Aedes aegypti em toda uma cidade, já que em Juazeiro a estratégia se mostrou eficaz, mas limitada por enquanto a dois bairros.

“Os resultados de 2011 e 2012 mostraram que [a técnica] realmente funcionava bem. E a convite e financiados pelo Governo do Estado da Bahia resolvemos avançar e irmos pra Jacobina. Agora não mais como piloto, mas fazendo um teste pra realmente eliminar a população [de mosquitos]”, fala Aldo Malavasi, professor aposentado do Departamento de Genética do Instituto de Biociências da Universidade de São Paulo (USP) e atual presidente da Moscamed. A USP também integra o projeto.

Malavasi trabalha na região desde 2006, quando a Moscamed foi criada para combater uma praga agrícola, a mosca-das-frutas, com técnica parecida – a Técnica do Inseto Estéril. A lógica é a mesma: produzir insetos estéreis para copular com as fêmeas selvagens e assim reduzir gradativamente essa população. A diferença está na forma como estes insetos são esterilizados. Ao invés de modificação genética, radiação. A TIE é usada largamente desde a década de 1970, principalmente em espécies consideradas ameaças à agricultura. O problema é que até agora a tecnologia não se adequava a mosquitos como o Aedes aegypti, que não resistiam de forma satisfatória à radiação

O plano de comunicação

As primeiras liberações em campo do Aedes transgênico foram realizadas nas Ilhas Cayman, entre o final de 2009 e 2010. O território britânico no Caribe, formado por três ilhas localizadas ao Sul de Cuba, se mostrou não apenas um paraíso fiscal (existem mais empresas registradas nas ilhas do que seus 50 mil habitantes), mas também espaço propício para a liberação dos mosquitos transgênicos, devido à ausência de leis de biossegurança. As Ilhas Cayman não são signatárias do Procolo de Cartagena, o principal documento internacional sobre o assunto, nem são cobertas pela Convenção de Aarthus – aprovada pela União Europeia e da qual o Reino Unido faz parte – que versa sobre o acesso à informação, participação e justiça nos processos de tomada de decisão sobre o meio ambiente.

Ao invés da publicação e consulta pública prévia sobre os riscos envolvidos no experimento, como exigiriam os acordos internacionais citados, os cerca de 3 milhões de mosquitos soltos no clima tropical das Ilhas Cayman ganharam o mundo sem nenhum processo de debate ou consulta pública. A autorização foi concedida exclusivamente pelo Departamento de Agricultura das Ilhas. Parceiro local da Oxitec nos testes, a Mosquito Research & Control Unit (Unidade de Pesquisa e Controle de Mosquito) postou um vídeo promocional sobre o assunto apenas em outubro de 2010, ainda assim sem mencionar a natureza transgênica dos mosquitos. O vídeo foi divulgado exatamente um mês antes da apresentação dos resultados dos experimentos pela própria Oxitec no encontro anual daAmerican Society of Tropical Medicine and Hygiene (Sociedade Americana de Medicina Tropical e Higiene), nos Estados Unidos.

A comunidade científica se surpreendeu com a notícia de que as primeiras liberações no mundo de insetos modificados geneticamente já haviam sido realizadas, sem que os próprios especialistas no assunto tivessem conhecimento. A surpresa se estendeu ao resultado: segundo os dados da Oxitec, os experimentos haviam atingido 80% de redução na população de Aedes aegypti nas Ilhas Cayman. O número confirmava para a empresa que a técnica criada em laboratório poderia ser de fato eficiente. Desde então, novos testes de campo passaram a ser articulados em outros países – notadamente subdesenvolvidos ou em desenvolvimento, com clima tropical e problemas históricos com a dengue.

Depois de adiar testes semelhantes em 2006, após protestos, a Malásia se tornou o segundo país a liberar os mosquitos transgênicos entre dezembro de 2010 e janeiro de 2011. Seis mil mosquitos foram soltos num área inabitada do país. O número, bem menor em comparação ao das Ilhas Cayman, é quase insignificante diante da quantidade de mosquitos que passou a ser liberada em Juazeiro da Bahia a partir de fevereiro de 2011. A cidade, junto com Jacobina mais recentemente, se tornou desde então o maior campo de testes do tipo no mundo, com mais de 18 milhões de mosquitos já liberados, segundo números da Moscamed.

“A Oxitec errou profundamente, tanto na Malásia quanto nas Ilhas Cayman. Ao contrário do que eles fizeram, nós tivemos um extenso trabalho do que a gente chama de comunicação pública, com total transparência, com discussão com a comunidade, com visita a todas as casas. Houve um trabalho extraordinário aqui”, compara Aldo Malavasi.

Em entrevista por telefone, ele fez questão de demarcar a independência da Moscamed diante da Oxitec e ressaltou a natureza diferente das duas instituições. Criada em 2006, a Moscamed é uma organização social, sem fins lucrativos portanto, que se engajou nos testes do Aedes aegypti transgênico com o objetivo de verificar a eficácia ou não da técnica no combate à dengue. Segundo Malavasi, nenhum financiamento da Oxitec foi aceito por eles justamente para garantir a isenção na avaliação da técnica. “Nós não queremos dinheiro deles, porque o nosso objetivo é ajudar o governo brasileiro”, resume.

Em favor da transparência, o programa foi intitulado “Projeto Aedes Transgênico” (PAT), para trazer já no nome a palavra espinhosa. Outra determinação de ordem semântica foi o não uso do termo “estéril”, corrente no discurso da empresa britânica, mas empregada tecnicamente de forma incorreta, já que os mosquitos produzem crias, mas geram prole programada para morrer no estágio larval. Um jingle pôs o complexo sistema em linguagem popular e em ritmo de forró pé-de-serra. E o bloco de carnaval “Papa Mosquito” saiu às ruas de Juazeiro no Carnaval de 2011.

No âmbito institucional, além do custeio pela Secretaria de Saúde estadual, o programa também ganhou o apoio da Secretaria de Saúde de Juazeiro da Bahia. “De início teve resistência, porque as pessoas também não queriam deixar armadilhas em suas casas, mas depois, com o tempo, elas entenderam o projeto e a gente teve uma boa aceitação popular”, conta o enfermeiro sanitarista Mário Machado, diretor de Promoção e Vigilância à Saúde da secretaria.

As armadilhas, das quais fala Machado, são simples instrumentos instalados nas casas de alguns moradores da área do experimento. As ovitrampas, como são chamadas, fazem as vezes de criadouros para as fêmeas. Assim é possível colher os ovos e verificar se eles foram fecundados por machos transgênicos ou selvagens. Isso também é possível porque os mosquitos geneticamente modificados carregam, além do gene letal, o fragmento do DNA de uma água-viva que lhe confere uma marcação fluorescente, visível em microscópios.

Desta forma, foi possível verificar que a redução da população de Aedes aegypti selvagem atingiu, segundo a Moscamed, 96% em Mandacaru – um assentamento agrícola distante poucos quilômetros do centro comercial de Juazeiro que, pelo isolamento geográfico e aceitação popular, se transformou no local ideal para as liberações. Apesar do número, a Moscamed continua com liberações no bairro. Devido à breve vida do mosquito (a fêmea vive aproximadamente 35 dias), a soltura dos insetos precisa continuar para manter o nível da população selvagem baixo. Atualmente, uma vez por semana um carro deixa a sede da organização com 50 mil mosquitos distribuídos aos milhares em potes plásticos que serão abertos nas ruas de Mandacaru.

“Hoje a maior aceitação é no Mandacaru. A receptividade foi tamanha que a Moscamed não quer sair mais de lá”, enfatiza Mário Machado.

O mesmo não aconteceu com o bairro de Itaberaba, o primeiro a receber os mosquitos no começo de 2011. Nem mesmo o histórico alto índice de infecção pelo Aedes aegypti fez com que o bairro periférico juazeirense, vizinho à sede da Moscamed, aceitasse de bom grado o experimento. Mário Machado estima “em torno de 20%” a parcela da população que se opôs aos testes e pôs fim às liberações.

“Por mais que a gente tente informar, ir de casa em casa, de bar em bar, algumas pessoas desacreditam: ‘Não, vocês estão mentindo pra gente, esse mosquito tá picando a gente’”, resigna-se.

Depois de um ano sem liberações, o mosquito parece não ter deixado muitas lembranças por ali. Em uma caminhada pelo bairro, quase não conseguimos encontrar alguém que soubesse do que estávamos falando. Não obstante, o nome de Itaberaba correu o mundo ao ser divulgado pela Oxitec que o primeiro experimento de campo no Brasil havia atingido 80% de redução na população de mosquitos selvagens.

Supervisora de campo da Moscamed, a bióloga Luiza Garziera foi uma das que foram de casa em casa explicando o processo, por vezes contornando o discurso científico para se fazer entender. “Eu falava que a gente estaria liberando esses mosquitos, que a gente liberava somente o macho, que não pica. Só quem pica é a fêmea. E que esses machos quando ‘namoram’ – porque a gente não pode falar às vezes de ‘cópula’ porque as pessoas não vão entender. Então quando esses machos namoram com a fêmea, os seus filhinhos acabam morrendo”.

Este é um dos detalhes mais importantes sobre a técnica inédita. Ao liberar apenas machos, numa taxa de 10 transgênicos para 1 selvagem, a Moscamed mergulha as pessoas numa nuvem de mosquitos, mas garante que estes não piquem aqueles. Isto acontece porque só a fêmea se alimenta de sangue humano, líquido que fornece as proteínas necessárias para sua ovulação.

A tecnologia se encaixa de forma convincente e até didática – talvez com exceção da “modificação genética”, que requer voos mais altos da imaginação. No entanto, ainda a ignorância sobre o assunto ainda campeia em considerável parcela dos moradores ouvidos para esta reportagem. Quando muito, sabe-se que se trata do extermínio do mosquito da dengue, o que é naturalmente algo positivo. No mais, ouviu-se apenas falar ou arrisca-se uma hipótese que inclua a, esta sim largamente odiada, muriçoca.

A avaliação dos riscos

Apesar da campanha de comunicação da Moscamed, a ONG britânica GeneWatch aponta uma série de problemas no processo brasileiro. O principal deles, o fato do relatório de avaliação de riscos sobre o experimento não ter sido disponibilizado ao público antes do início das liberações. Pelo contrário, a pedido dos responsáveis pelo Programa Aedes Transgênico, o processo encaminhado à Comissão Técnica Nacional de Biossegurança (CTNBio, órgão encarregado de autorizar ou não tais experimentos) foi considerado confidencial.

“Nós achamos que a Oxitec deve ter o consentimento plenamente informado da população local, isso significa que as pessoas precisam concordar com o experimento. Mas para isso elas precisam também ser informadas sobre os riscos, assim como você seria se estivesse sendo usado para testar um novo medicamento contra o câncer ou qualquer outro tipo de tratamento”, comentou, em entrevista por Skype, Helen Wallace, diretora executiva da organização não governamental.

Especialista nos riscos e na ética envolvida nesse tipo de experimento, Helen publicou este ano o relatório Genetically Modified Mosquitoes: Ongoing Concerns (“Mosquitos Geneticamente Modificados: atuais preocupações”), que elenca em 13 capítulos o que considera riscos potenciais não considerados antes de se autorizar a liberação dos mosquitos transgênicos. O documento também aponta falhas na condução dos experimentos pela Oxitec.

Por exemplo, após dois anos das liberações nas Ilhas Cayman, apenas os resultados de um pequeno teste haviam aparecido numa publicação científica. No começo de 2011, a empresa submeteu os resultados do maior experimento nas Ilhas à revista Science, mas o artigo não foi publicado. Apenas em setembro do ano passado o texto apareceu em outra revista, a Nature Biotechnology, publicado como “correspondência” – o que significa que não passou pela revisão de outros cientistas, apenas pela checagem do próprio editor da publicação.

Para Helen Wallace, a ausência de revisão crítica dos pares científicos põe o experimento da Oxitec sob suspeita. Mesmo assim, a análise do artigo, segundo o documento, sugere que a empresa precisou aumentar a proporção de liberação de mosquitos transgênicos e concentrá-los em uma pequena área para que atingisse os resultados esperados. O mesmo teria acontecido no Brasil, em Itaberaba. Os resultados do teste no Brasil também ainda não foram publicados pela Moscamed. O gerente do projeto, Danilo Carvalho, informou que um dos artigos já foi submetido a uma publicação e outro está em fase final de escrita.

Outro dos riscos apontados pelo documento está no uso comum do antibiótico tetraciclina. O medicamento é responsável por reverter o gene letal e garantir em laboratório a sobrevivência do mosquito geneticamente modificado, que do contrário não chegaria à fase adulta. Esta é a diferença vital entre a sorte dos mosquitos reproduzidos em laboratório e a de suas crias, geradas no meio ambiente a partir de fêmeas selvagens – sem o antibiótico, estão condenados à morte prematura.

A tetraciclina é comumente empregada nas indústrias da pecuária e da aquicultura, que despejam no meio ambiente grandes quantidades da substância através de seus efluentes. O antibiótico também é largamente usado na medicina e na veterinária. Ou seja, ovos e larvas geneticamente modificados poderiam entrar em contato com o antibiótico mesmo em ambientes não controlados e assim sobreviverem. Ao longo do tempo, a resistência dos mosquitos transgênicos ao gene letal poderia neutralizar seu efeito e, por fim, teríamos uma nova espécie geneticamente modificada adaptada ao meio ambiente.

laboratorio 300x186 Mosquitos transgênicos no céu do sertãoA hipótese é tratada com ceticismo pela Oxitec, que minimiza a possibilidade disto acontecer no mundo real. No entanto, documento confidencial tornado público mostra que a hipótese se mostrou, por acaso, real nos testes de pesquisador parceiro da empresa. Ao estranhar uma taxa de sobrevivência das larvas sem tetraciclina de 15% – bem maior que os usuais 3% contatos pelos experimentos da empresa –, os cientistas da Oxitec descobriram que a ração de gato com a qual seus parceiros estavam alimentando os mosquitos guardava resquícios do antibiótico, que é rotineiramente usado para tratar galinhas destinadas à ração animal.

O relatório da GeneWatch chama atenção para a presença comum do antibiótico em dejetos humanos e animais, assim como em sistemas de esgotamento doméstico, a exemplo de fossas sépticas. Isto caracterizaria um risco potencial, já que vários estudos constataram a capacidade do Aedes aegypti se reproduzir em águas contaminadas – apesar de isso ainda não ser o mais comum, nem acontecer ainda em Juazeiro, segundo a Secretaria de Saúde do município.

Além disso, há preocupações quanto a taxa de liberação de fêmeas transgênicas. O processo de separação das pupas (último estágio antes da vida adulta) é feito de forma manual, com a ajuda de um aparelho que reparte os gêneros pelo tamanho (a fêmea é ligeiramente maior). Uma taxa de 3% de fêmeas pode escapar neste processo, ganhando a liberdade e aumentando os riscos envolvidos. Por último, os experimentos ainda não verificaram se a redução na população de mosquitos incide diretamente na transmissão da dengue.

Todas as críticas são rebatidas pela Oxitec e pela Moscamed, que dizem manter um rigoroso controle de qualidade – como o monitoramento constante da taxa de liberação de fêmeas e da taxa de sobrevivências das larvas sem tetraciclina. Desta forma, qualquer sinal de mutação do mosquito seria detectado a tempo de se suspender o programa. Ao final de aproximadamente um mês, todos os insetos liberados estariam mortos. Os mosquitos, segundo as instituições responsáveis, também não passam os genes modificados mesmo que alguma fêmea desgarrada pique um ser humano.

Mosquito transgênico à venda

Em julho passado, depois do êxito dos testes de campo em Juazeiro, a Oxitec protocolou a solicitação de licença comercial na Comissão Técnica Nacional de Biossegurança (CTNBio). Desde o final de 2012, a empresa britânica possui CNPJ no país e mantém um funcionário em São Paulo. Mais recentemente, com os resultados promissores dos experimentos em Juazeiro, alugou um galpão em Campinas e está construindo o que será sua sede brasileira. O país representa hoje seu mais provável e iminente mercado, o que faz com que o diretor global de desenvolvimento de negócios da empresa, Glen Slade, viva hoje numa ponte aérea entre Oxford e São Paulo.

“A Oxitec está trabalhando desde 2009 em parceria com a USP e Moscamed, que são parceiros bons e que nos deram a oportunidade de começar projetos no Brasil. Mas agora acabamos de enviar nosso dossiê comercial à CTNBio e esperamos obter um registro no futuro, então precisamos aumentar nossa equipe no país. Claramente estamos investindo no Brasil. É um país muito importante”, disse Slade numa entrevista por Skype da sede na Oxitec, em Oxford, na Inglaterra.

A empresa de biotecnologia é uma spin-out da universidade britânica, o que significa dizer que a Oxitec surgiu dos laboratórios de uma das mais prestigiadas universidades do mundo. Fundada em 2002, desde então vem captando investimentos privados e de fundações sem fins lucrativos, tais como a Bill & Melinda Gates, para bancar o prosseguimento das pesquisas. Segundo Slade, mais de R$ 50 milhões foram gastos nesta última década no aperfeiçoamento e teste da tecnologia.

O executivo espera que a conclusão do trâmite burocrático para a concessão da licença comercial aconteça ainda próximo ano, quando a sede brasileira da Oxitec estará pronta, incluindo uma nova biofábrica. Já em contato com vários municípios do país, o executivo prefere não adiantar nomes. Nem o preço do serviço, que provavelmente será oferecido em pacotes anuais de controle da população de mosquitos, a depender o orçamento do número de habitantes da cidade.

“Nesse momento é difícil dar um preço. Como todos os produtos novos, o custo de produção é mais alto quando a gente começa do que a gente gostaria. Acho que o preço vai ser um preço muito razoável em relação aos benefícios e aos outros experimentos para controlar o mosquito, mas muito difícil de dizer hoje. Além disso, o preço vai mudar segundo a escala do projeto. Projetos pequenos não são muito eficientes, mas se tivermos a oportunidade de controlar os mosquitos no Rio de Janeiro todo, podemos trabalhar em grande escala e o preço vai baixar”, sugere.

A empresa pretende também instalar novas biofábricas nas cidades que receberem grandes projetos, o que reduzirá o custo a longo prazo, já que as liberações precisam ser mantidas indefinidamente para evitar o retorno dos mosquitos selvagens. A velocidade de reprodução do Aedes aegypti é uma preocupação. Caso seja cessado o projeto, a espécie pode recompor a população em poucas semanas.

“O plano da empresa é conseguir pagamentos repetidos para a liberação desses mosquitos todo ano. Se a tecnologia deles funcionar e realmente reduzir a incidência de dengue, você não poderá suspender estas liberações e ficará preso dentro desse sistema. Uma das maiores preocupações a longo prazo é que se as coisas começarem a dar errado, ou mesmo se tornarem menos eficientes, você realmente pode ter uma situação pior ao longo de muitos anos”, critica Helen Wallace.

O risco iria desde a redução da imunidade das pessoas à doença, até o desmantelamento de outras políticas públicas de combate à dengue, como as equipes de agentes de saúde. Apesar de tanto a Moscamed quanto a própria secretaria de Saúde de Juazeiro enfatizarem a natureza complementar da técnica, que não dispensaria os outros métodos de controle, é plausível que hajam conflitos na alocação de recursos para a área. Hoje, segundo Mário Machado da secretaria de Saúde, Juazeiro gasta em média R$ 300 mil por mês no controle de endemias, das quais a dengue é a principal.

A secretaria negocia com a Moscamed a ampliação do experimento para todo o município ou mesmo para toda a região metropolitana formada por Juazeiro e Petrolina – um teste que cobriria meio milhão pessoas –, para assim avaliar a eficácia em grandes contingentes populacionais. De qualquer forma e apesar do avanço das experiências, nem a organização social brasileira nem a empresa britânica apresentaram estimativas de preço pra uma possível liberação comercial.

“Ontem nós estávamos fazendo os primeiros estudos, pra analisar qual é o preço deles, qual o nosso. Porque eles sabem quanto custa o programa deles, que não é barato, mas não divulgam”, disse Mário Machado.

Em reportagem do jornal britânico The Observer de julho do ano passado, a Oxitec estimou o custo da técnica em “menos de” £6 libras esterlinas por pessoa por ano. Num cálculo simples, apenas multiplicando o número pela contação atual da moeda britânia frente ao real e desconsiderando as inúmeras outras variáveis dessa conta, o projeto em uma cidade de 150 mil habitantes custaria aproximadamente R$ 3,2 milhões por ano.

Se imaginarmos a quantidade de municípios de pequeno e médio porte brasileiros em que a dengue é endêmica, chega-se a pujança do mercado que se abre – mesmo desconsiderando por hora os grandes centros urbanos do país, que extrapolariam a capacidade atual da técnica. Contudo, este é apenas uma fatia do negócio. A Oxitec também possui uma série de outros insetos transgênicos, estes destinados ao controle de pragas agrícolas e que devem encontrar campo aberto no Brasil, um dos gigantes do agronegócio no mundo.

Aguardando autorização da CTNBio, a Moscamed já se preparara para testar a mosca-das-frutas transgênica, que segue a mesma lógica do Aedes aegypti. Além desta, a Oxitec tem outras 4 espécies geneticamente modificadas que poderão um dia serem testadas no Brasil, a começar por Juazeiro e o Vale do São Francisco. A região é uma das maiores produtoras de frutas frescas para exportação do país. 90% de toda uva e manga exportadas no Brasil saem daqui. Uma produção que requer o combate incessante às pragas. Nas principais avenidas de Juazeiro e Petrolina, as lojas de produtos agrícolas e agrotóxicos se sucedem, variando em seus totens as logos das multinacionais do ramo.

“Não temos planos concretos [além da mosca-das-frutas], mas, claro, gostaríamos muito de ter a oportunidade de fazer ensaios com esses produtos também. O Brasil tem uma indústria agrícola muito grande. Mas nesse momento nossa prioridade número 1 é o mosquito da dengue. Então uma vez que tivermos este projeto com recursos bastante, vamos tentar acrescentar projetos na agricultura.”, comentou Slade.

Ele e vários de seus colegas do primeiro escalão da empresa já trabalharam numa das gigantes do agronegócio, a Syngenta. O fato, segundo Helen Wallace, é um dos revelam a condição do Aedes aegypti transgênico de pioneiro de todo um novo mercado de mosquitos geneticamente modificados: “Nos achamos que a Syngenta está principalmente interessada nas pragas agrícolas. Um dos planos que conhecemos é a proposta de usar pragas agrícolas geneticamente modificadas junto com semestres transgênicas para assim aumentar a resistências destas culturas às pragas”.

“Não tem nenhum relacionamento entre Oxitec e Syngenta dessa forma. Talvez tenhamos possibilidade no futuro de trabalharmos juntos. Eu pessoalmente tenho o interesse de buscar projetos que possamos fazer com Syngenta, Basf ou outras empresas grandes da agricultura”, esclarece Glen Slade.

Em 2011, a indústria de agrotóxicos faturou R$14,1 bilhões no Brasil. Maior mercado do tipo no mundo, o país pode nos próximos anos inaugurar um novo estágio tecnológico no combate às pestes. Assim como na saúde coletiva, com o Aedes aegypti transgênico, que parece ter um futuro comercial promissor. Todavia, resta saber como a técnica conviverá com as vacinas contra o vírus da dengue, que estão em fase final de testes – uma desenvolvida por um laboratório francês, outra pelo Instituto Butantan, de São Paulo. As vacinas devem chegar ao público em 2015. O mosquito transgênico, talvez já próximo ano.

Dentre as linhagens de mosquitos transgênicos, pode surgir também uma versão nacional. Como confirmou a professora Margareth de Lara Capurro-Guimarães, do Departamento de Parasitologia da USP e coordenadora do Programa Aedes Transgênico, já está sob estudo na universidade paulista a muriçoca transgênica. Outra possível solução tecnológica para um problema de saúde pública em Juazeiro da Bahia – uma cidade na qual, segundo levantamento do Sistema Nacional de Informações sobre Saneamento (SNIS) de 2011, a rede de esgoto só atende 67% da população urbana.

* Publicado originalmente no site Agência Pública.

(Agência Pública)