Segundo o seu estudo, a “parcialidade” que nos torna vulneráveis ao engano pode revelar-se desde logo no cérebro, viciando o processo cognitivo; ou na sociedade, por efeito de imitação e “câmara de eco”; ou nos aparelhos que usamos, computadores ou telemóveis, por desvio do objectivo inicial dos algoritmos instalados. 

O nosso primeiro problema é que o cérebro está preparado para lidar com uma quantidade finita de informação, e o excesso de estímulos pode causar um efeito de sobrecarga. A “competição intensa pela atenção limitada dos utentes implica que determinadas ideias se tornam ‘virais’ apesar da sua fraca qualidade, e mesmo que as pessoas prefiram partilhar conteúdos de alta qualidade”. 

O acto de decidirmos se fazemos ou não o reenvio de uma história acabada de chegar deixa-nos mais vulneráveis, por exemplo, às conotações emocionais de um título  - que pode não ser o melhor critério sobre a sua autenticidade. “É mais importante saber quem o escreveu.” 

Em termos de relações sociais, tendemos a identificar-nos, no nosso tráfego online, cada vez mais com um grupo determinado. A investigação citada pelos dois autores revela que “é possível determinar a inclinação política de um utente do Twitter olhando simplesmente para as preferências partidárias dos seus amigos”. 

A estrutura destes grupos torna-os muito eficazes na partilha de informação  - verdadeira ou não  - “quando são muito coesos e desligados de outras partes da sociedade”. Isto explica de que modo tantas conversas online descambam em confrontos de “nós contra eles”. 

O terceiro tipo de tendenciosismo vem directamente dos algoritmos usados tanto pelas plataformas das redes sociais como pelos motores de busca. Estas “tecnologias de personalização” reforçam as preferências detectadas, tornando os utentes cada vez mais vulneráveis à manipulação. 

“Por exemplo, as ferramentas de publicidade inseridas em muitas plataformas de redes sociais permitem aos autores de campanhas de desinformação explorar as tendências de confirmação, fornecendo mensagens ajustadas a pessoas já inclinadas a acreditarem nelas.” (...) 

Para qualquer destes três territórios principais, os investigadores do estudo citado, no Observatory of Social Media da Universidade de Indiana, desenvolveram ferramentas específicas: 

Para o primeiro, apresentam Fakey, um jogo de literacia mediática destinado a dispositivos móveis, no qual se ganham pontos quando se faz o reenvio de notícias de fontes sérias ou se assinalam conteúdos suspeitos para fact-checking

Para o tendenciosismo de origem colectiva, propõem Hoaxy, um sistema que identifica de forma visual a disseminação de conteúdos de baixa credibilidade e o modo como estas disputam espaço aos esforços de fact-checking

Para o último, desenvolveram o Botometer, à letra um uma ferramenta para detectar robots sociais. “Não é perfeito, mas revelou que pelo menos 15% das contas do Twitter mostram sinais de que se trata de robots.” (...) 

“Ferramentas como estas oferecem aos utentes da Internet mais informação sobre a desinformação e, portanto, algum grau de protecção contra os seus malefícios. As soluções não serão exclusivamente tecnológicas, embora tenham provavelmente alguns aspectos técnicos. Mas devem ter em conta os aspectos cognitivos e sociais do problema.” 

O artigo citado, na íntegra, no NiemanLab, com um vídeo de apresentação destas ferramentas