Arquivo da tag: Fake news

“Eu fui um ‘bot”: as confissões de um agente dedicado a mentir no Twitter (El País)

Ex-funcionário de uma agência explica como funciona a sofisticada máquina das armadilhas na rede social

As redes sociais, terreno de jogo para as campanhas de manipulação.
As redes sociais, terreno de jogo para as campanhas de manipulação.Bill Hinton / EL PAÍS

Jordi Pérez Colomé – 21 may 2020 – 21:43 BRT

“Coordenei uma equipe de trolls formada por 10 pessoas. Mas há equipes maiores no setor”, diz um community manager que durante boa parte da última década atuou em uma agência internacional que vendia serviços de amplificação artificial de mensagens no Twitter. “Trabalhei em projetos em cinco países, entre eles a Espanha. Existe uma demanda para contratos desse tipo que não é anunciada nas Páginas Amarelas”, diz.

Com esta experiência, ele agora quer revelar como funciona esse negócio obscuro capaz de influenciar a opinião pública. Há algumas semanas, começou a contar detalhes em uma conta do Twitter chamada ironicamente @thebotruso (“o robô russo”). O EL PAÍS, que comprovou seu papel na agência em questão, trocou dúzias de mensagens com @thebotruso sobre como são preparadas a executadas atualmente as célebres campanhas de bots e trolls a serviço de empresas, partidos políticos ou clubes esportivos. O ex-funcionário mantém o anonimato porque um contrato de confidencialidade o impede de revelar o conteúdo específico e os clientes de seu antigo trabalho.

O Twitter não é uma réplica da vida real. Mas os debates ou opiniões que dominam a rede frequentemente vão parar na mídia. Ou mesmo na tribuna dos Parlamentos. “As ruas estão ficando cheias de bots”, disse com ironia Santiago Abascal, líder do partido Vox, ao primeiro-ministro espanhol, o socialista Pedro Sánchez, durante um debate nesta segunda-feira, referindo-se a recentes manifestações da direita no país. Uma parte das contas que discutem no Twitter é falsa. O problema é saber quantas ou, mais difícil, quais são, e que influência exercem. “Eu gostava de chamar a atenção de jornalistas afins. Aumenta muito nosso ego que um jornalista pegue os conteúdos de sua conta troll como fonte dos seus artigos, além de ajudar a ganhar visibilidade”, conta @thebotruso.

1. Nem todos são ‘bots’

Por definição se usa bot como sinônimo de conta falsa no Twitter. Mas um bot é uma conta automatizada, não necessariamente falsa. Anos atrás, eles eram os principais encarregados de amplificar mensagens: faziam milhares de retuítes ou likes, ou serviam para engrossar contas de seguidores. Continuam tendo essa finalidade, mas, graças a ações do Twitter e à maior sofisticação dos usuários atuais, ficou mais fácil descobri-los e eliminá-los.

A agência onde @thebotruso trabalhava tem um software para programar bots. Ele dá ordens para fazer tantos retuítes de tais contas ou disparar tuítes previamente redigidos em horários determinados. É barato, mas pouco refinado. “Continua-se trabalhando para amplificar o conteúdo, mas é preciso ser cuidadoso, porque pode acarretar um problema de reputação ao cliente”, diz.

Para evitá-lo, há vários recursos que permitem humanizar ou desvincular esses bots de uma campanha: “Os bots não irão retuitar qualquer coisa que se mexa. Se forem feitas ações com um troll específico, por exemplo, isso gera um padrão, com o que um analista de dados da concorrência seria capaz de levantar a lebre”, diz.

Os bots tampouco seguirão a conta do cliente que os paga, como precaução para uma eventual descoberta. “Se pegarmos como exemplo a causa independentista [da Catalunha], os bots seguirão diferentes partidos, políticos e associações, mas não o cliente final”, explica. Também se observa se há usuários reais interagindo com algum bot. Nesse caso, um funcionário entrará no circuito para responder.

2. A chave são dois tipos de trolls

A definição habitual de troll está associada a um usuário vândalo ou impertinente. Na agência, essas eram suas contas-estrelas. Cada empregado podia administrar 30 delas, cada uma com seu comportamento humano. Os trolls se dividiam em alfa e beta.

As contas alfa difundem a mensagem. Começavam com uma estratégia de “me siga e eu te sigo”, para ganhar peso. Seus tuítes iniciais eram inflados pelos bots e depois interagiam com contas importantes para chamar a atenção. Na Espanha, ficou famosa a conta de Miguel Lacambra, que conseguiu 20.000 seguidores em poucas semanas com uma estratégia similar.

Os trolls beta são os guerrilheiros. Dedicam-se a amansar a crítica. São contas que respondem a tuítes de famosos com insultos ou ameaças. “Os afetados pelos ataques dos beta veem as respostas a seus tuítes e muitas vezes se contêm um pouco na hora de tuitar, dependendo do tema. Sentem-se incômodos e passam a querer ter um perfil mais discreto. O sistema é eficaz. Por isso, continuam sendo contratados e aperfeiçoados. E nós, usuários, continuamos caindo”, diz.

3. O objetivo: enganar o Twitter

Uma parte dos esforços é dedicada a evitar a detecção das armadilhas e aumentar a probabilidade de sucesso: “Os trolls não se seguirão entre si e se limitará a interação entre eles para que liderem vários grupos de diálogo e porque uma relação habitual entre dois ou mais trolls poria a operação em risco”, diz @thebotruso. As contas são mapeadas com uma ferramenta habitual entre pesquisadores, chamada Gephi, para ver se a relação entre eles é destacável: “Esses gephis seriam capazes de revelar a relação entre nossas contas (trolls e bots), por isso todo cuidado é pouco”, diz.

Há, além disso, um objetivo permanente em todas essas operações: evitar padrões. “Cada conta que um troll dirige deve escrever diferente: as pessoas têm tendência a utilizar certas expressões e deixar padrões de escrita, como pôr dois pontos de exclamação ou terminar todas as frases com reticências”, conta.

Os ardis para enganar o Twitter são ainda mais destacáveis com os bots automatizados: “O software comanda todos os bots, que se dividem em grupos. Cada grupo utiliza uma API [ferramenta para usar automaticamente o Twitter]. E o endereço IP é variado de forma aleatória. Chegamos a ter 3.000 ou 4.000 contas em uma mesma API, e me consta que poderiam ser usadas até mais. O problema é que, se você tiver muitas contas tuitando direto sob uma mesma API, pode levar o Twitter a bloqueá-la”, explica. Embora essas ferramentas permitam administrar milhares de contas, é preciso personalizar cada uma delas com foto, nome e biografia. É um trabalho longo demais para que o Twitter derrube 2.000 perfis de uma vez.

4. Toda campanha tem um plano

Cada campanha é preparada com análise de dados e objetivos diários. Os bots e trolls não surgem do nada. Antes de uma campanha, cientistas de dados analisam a conversação pública sobre o tema que interessa ao cliente: um partido que deseja ampliar sua bancada, uma empresa que espera bater um concorrente, ou um time de futebol com problemas de credibilidade.

“Eles veem quantas contas estão participando de um tema e se estabelece quantas seriam necessárias para ter influência”, diz. Também é analisado o sentimento e os influencers desses assuntos: “São feitas listas de contas favoráveis e contrárias, e se analisa o peso que elas têm”, diz. Essa informação é chave para o funcionamento da campanha: “Serve para que o troll saiba com que usuários interagir, para gerar um núcleo com eles, a quais responder e perseguir com os beta, e com que usuários nem sequer vale a pena perder tempo. Não é a mesma coisa iniciar uma conta do tranco ou com uma quantidade imensa de informação. O troll alfa sabe a quem se dirigir, com que tom, e o que comunicar”.

Uma campanha pode chegar a custar um milhão de euros (6,2 milhões de reais). O cliente espera resultados concretos e demonstráveis. Uma campanha média pode exigir entre 1.500 e 2.000 bots e trolls.

Enquanto os usuários normais do Twitter entram na rede para ver o que acontece, estas operações envolvendo centenas de contas falsas têm um plano diário. É como se a cada jornada um chefe mafioso enviasse um grupo de asseclas a uma cidade com um plano delicadamente concebido para que executem uma série de missões concretas e semeiem o pânico sem serem detectados. O objetivo é fazer os cidadãos acreditarem em coisas que não são verdade: não só com notícias falsas, mas também com ações que sugiram que mais gente acredita em determinada coisa do que realmente ocorre. Seria como inflar uma pesquisa de opinião. Claro que frequentemente se enfrentam equipes que buscam justamente o contrário.

Isto não fica só na teoria. Seus efeitos têm consequências no mundo real. “As pessoas tendem a compartilhar sua opinião quando se sentem protegidas pela comunidade”, diz esse agente. “Houve um tempo em que muitos catalães não independentistas não publicavam suas ideias nas redes porque entravam no Twitter e tinham a sensação que meio mundo era independentista.”

Estas ações em redes permitem abrir o caminho para opiniões radicais. De repente, alguém vê que a crítica aberta a imigrantes ou mulheres está permitida. Talvez não seja feita com crueldade ostensiva, e sim com memes ou palavras em código, mas está lá. Não se sabe se essas contas são controladas por uma dúzia de empregados em um escritório.

5. Como enganar um jornalista

Frequentemente, os jornalistas não têm consciência de como é fácil lhes passar mercadoria falsa. Um dos motivos que levou @thebotruso a criar essa conta e querer contar sua experiência foi para tentar advertir dos perigos: “Quem trabalha na mídia nem sempre conhece esse ecossistema. De certo modo, é fácil enganar um jornalista. Eles estão sempre procurando informações e, hoje em dia, a Internet é uma fonte muito grande. Se um jornalista topar com seu conteúdo, vir que tem apoio e que se encaixa no que ele quer (ou precisa) comunicar, talvez pegue. As estratégias para cada caso são diferentes. Por exemplo: para uma empresa acusada de corrupção, criamos um ecossistema que defendia os postos de trabalho (trabalhadores preocupados com as medidas exigidas contra a empresa)”, explica.

6. Como manipular uma pesquisa no Twitter

Os bots são úteis para ganhar uma pesquisa na rede. Estes são os passos que esta agência seguia: “Detecta-se a pesquisa e se faz uma captura de tela. É feito um cálculo para saber quantos votos são necessários para virar os resultados, e o valor de cada ponto percentual. Tem início a operação para que a opção desejada vença. Monitora-se para ver que tudo funciona corretamente”.

7. A criação de um ‘trending topic’

As opções para conseguir um trending topic eram mais reduzidas, mas a estratégia era clara. A agência trabalhava durante dias para atingir seu objetivo. “A primeira coisa é escolher um dia e uma hora. Procura-se não coincidir com eventos como um jogo de futebol ou o Big Brother”, explica @thebotruso. “Escolhe-se uma hashtag, é importante que não tenha sido utilizada antes, porque são mais difíceis de posicionar. Aciona-se a equipe de redatores que escrevem milhares de tuítes durante vários dias para que sejam publicados pela rede de bots”, acrescenta.

Usuários reais também são avisados, para caso tenham interesse. “São enviadas comunicações a pessoas afins para avisar da ação: tal dia, a tal hora, sairemos com tal hashtag para nos queixar, convidamos você à ação para ver se conseguimos ser tendência e fazer que nos ouçam”.

Chega o grande dia: “Os analistas olham quantos tuítes são necessários para entrar nas tendências. Os tuítes são inseridos na plataforma de bots. O cliente dispara o primeiro tuíte. Rapidamente a rede de bots é acionada. É crucial que haja muitos tuítes em um espaço curto de tempo. Os trolls alfa saem com tuítes de impacto. Os analistas de dados monitoram para saber se é preciso disparar mais tuítes, ou se é o caso de frear a rede de bots. Os trolls beta apoiam a ação, respondem aos críticos, estimulam outros usuários com a mesma ideologia”.

Passada a missão, com sucesso ou não, é hora de dissimular as provas: “A ação dos bots é detida e limpa: as contas bot fazem tuítes e retuítes de outros temas para que, se alguém aparecer para ver essas contas, não veja que só entraram para fazer tuítes sobre o trending e foram dormir. Os trolls podem continuar tuitando por algum tempo, e depois farão uma limpa, como os bots”, acrescenta. “Finalmente, prepara-se um relatório para o cliente”.

E como tudo isso afeta quem o faz? “Todos estávamos conscientes do que estávamos pondo em jogo. E eu gosto dessa palavra: jogo. Sempre recomendei a todo mundo que encarasse como jogar War, porque é fácil encarar os projetos como algo pessoal, e às vezes é difícil administrar a diferença entre a sua conta troll e você. Por sorte, nunca tive ninguém de licença por depressão, ansiedade ou nada parecido”.

Conspiracy theories: how belief is rooted in evolution – not ignorance (The Conversation)

December 13, 2019 9.33am EST – original article

Mikael Klintman PhD, Professor, Lund University

Despite creative efforts to tackle it, belief in conspiracy theories, alternative facts and fake news show no sign of abating. This is clearly a huge problem, as seen when it comes to climate change, vaccines and expertise in general – with anti-scientific attitudes increasingly influencing politics.

So why can’t we stop such views from spreading? My opinion is that we have failed to understand their root causes, often assuming it is down to ignorance. But new research, published in my book, Knowledge Resistance: How We Avoid Insight from Others, shows that the capacity to ignore valid facts has most likely had adaptive value throughout human evolution. Therefore, this capacity is in our genes today. Ultimately, realising this is our best bet to tackle the problem.

So far, public intellectuals have roughly made two core arguments about our post-truth world. The physician Hans Rosling and the psychologist Steven Pinker argue it has come about due to deficits in facts and reasoned thinking – and can therefore be sufficiently tackled with education.

Meanwhile, Nobel Prize winner Richard Thaler and other behavioural economists have shown how the mere provision of more and better facts often lead already polarised groups to become even more polarised in their beliefs.

Tyler Merbler/Flickr, CC BY-SA

The conclusion of Thaler is that humans are deeply irrational, operating with harmful biases. The best way to tackle it is therefore nudging – tricking our irrational brains – for instance by changing measles vaccination from an opt-in to a less burdensome opt-out choice.

Such arguments have often resonated well with frustrated climate scientists, public health experts and agri-scientists (complaining about GMO-opposers). Still, their solutions clearly remain insufficient for dealing with a fact-resisting, polarised society.

Evolutionary pressures

In my comprehensive study, I interviewed numerous eminent academics at the University of Oxford, London School of Economics and King’s College London, about their views. They were experts on social, economic and evolutionary sciences. I analysed their comments in the context of the latest findings on topics raging from the origin of humanity, climate change and vaccination to religion and gender differences.

It became evident that much of knowledge resistance is better understood as a manifestation of social rationality. Essentially, humans are social animals; fitting into a group is what’s most important to us. Often, objective knowledge-seeking can help strengthen group bonding – such as when you prepare a well-researched action plan for your colleagues at work.

But when knowledge and group bonding don’t converge, we often prioritise fitting in over pursuing the most valid knowledge. In one large experiment, it turned out that both liberals and conservatives actively avoided having conversations with people of the other side on issues of drug policy, death penalty and gun ownership. This was the case even when they were offered a chance of winning money if they discussed with the other group. Avoiding the insights from opposing groups helped people dodge having to criticise the view of their own community.

Similarly, if your community strongly opposes what an overwhelming part of science concludes about vaccination or climate change, you often unconsciously prioritise avoiding getting into conflicts about it.

This is further backed up by research showing that the climate deniers who score the highest on scientific literacy tests are more confident than the average in that group that climate change isn’t happening – despite the evidence showing this is the case. And those among the climate concerned who score the highest on the same tests are more confident than the average in that group that climate change is happening.

This logic of prioritising the means that get us accepted and secured in a group we respect is deep. Those among the earliest humans who weren’t prepared to share the beliefs of their community ran the risk of being distrusted and even excluded.

And social exclusion was an enormous increased threat against survival – making them vulnerable to being killed by other groups, animals or by having no one to cooperate with. These early humans therefore had much lower chances of reproducing. It therefore seems fair to conclude that being prepared to resist knowledge and facts is an evolutionary, genetic adaptation of humans to the socially challenging life in hunter-gatherer societies.

Today, we are part of many groups and internet networks, to be sure, and can in some sense “shop around” for new alliances if our old groups don’t like us. Still, humanity today shares the same binary mindset and strong drive to avoid being socially excluded as our ancestors who only knew about a few groups. The groups we are part of also help shape our identity, which can make it hard to change groups. Individuals who change groups and opinions constantly may also be less trusted, even among their new peers.

In my research, I show how this matters when it comes to dealing with fact resistance. Ultimately, we need to take social aspects into account when communicating facts and arguments with various groups. This could be through using role models, new ways of framing problems, new rules and routines in our organisations and new types of scientific narratives that resonate with the intuitions and interests of more groups than our own.

There are no quick fixes, of course. But if climate change were reframed from the liberal/leftist moral perspective of the need for global fairness to conservative perspectives of respect for the authority of the father land, the sacredness of God’s creation and the individual’s right not to have their life project jeopardised by climate change, this might resonate better with conservatives.

If we take social factors into account, this would help us create new and more powerful ways to fight belief in conspiracy theories and fake news. I hope my approach will stimulate joint efforts of moving beyond disputes disguised as controversies over facts and into conversations about what often matters more deeply to us as social beings.