Os deepfakes são uma ameaça grave às eleições por todo o mundo em 2024, e Rowan Philip explica porquê num artigo com dicas práticas publicado no site Global Investigative Journalism Network (GIJN).

O jornalista dá alguns exemplos de contextos eleitorais em que estes conteúdos falsos já foram usados e sugere ferramentas que os jornalistas podem usar para detectar áudios deepfake.

Interessa, primeiro, definir o conceito, que é relativamente novo no discurso corrente. Deepfakes são conteúdos gerados por inteligência artificial (IA) que simulam, de forma realista, situações, pessoas e sons (incluindo vozes) verdadeiros. Os conteúdos podem ser em áudio, fotografia ou vídeo.

No artigo do GIJN, o jornalista aborda especialmente os deepfakes em formato áudio, devido ao perigo que constituem pela facilidade com que são feitos, ao seu baixo custo e à sua maior dificuldade de detecção. O autor refere estudos que mostram que cerca de metade das pessoas não consegue distinguir imagens reais de imagens geradas pela IA, e que os eleitores na maior parte das vezes não têm capacidade para detectar vozes deepfake

Os deepfakes já estão a influenciar eleições

Para Rowan Philip, o cenário de várias eleições em todo o mundo em 2024 é especialmente propício à divulgação de deepfakes de áudios. O jornalista dá vários exemplos de interferência em actos eleitorais nos últimos meses.

Nos Estados Unidos, em Fevereiro deste ano, foram feitas chamadas telefónicas em que era usado um clipe de áudio com uma voz semelhante à do presidente Joe Biden instigando os eleitores a não votarem nas primárias de New Hampshire. O responsável pelo conteúdo falso acabou por ser identificado e reconheceu que criar o áudio falso demorou menos de 20 minutos e custou apenas um dólar, disse à NBC News, citada no GIJN (no artigo da NBC, é possível ouvir o clipe de voz: https://www.nbcnews.com/politics/2024-election/biden-robocall-new-hampshire-strategist-rcna139760).

Mas há mais casos. Na Eslováquia, em Outubro de 2023, uma imitação da voz de um líder de oposição, sintetizada por IA, influenciou a eleição a favor de um candidato pró-Rússia. No Paquistão, um áudio falso foi sobreposto a um vídeo real de um candidato, apelando ao boicote às eleições. Também nas eleições do Bangladesh, deepfakes com afirmações polémicas proferidas por vozes falsificadas dos candidatos ganharam popularidade entre os eleitores.

O Financial Times também já reportou casos no Reino Unido, Índia, Nigéria, Sudão e Etiópia, acrescenta Rowan Philip.

O autor lembra, ainda, que os momentos mais vulneráveis nas eleições são as “48 horas que antecedem as votações, porque as campanhas e os jornalistas têm pouco tempo para examinar ou refutar” ou conteúdos falsos, explicou Craig Silverman, do ProPublica, ao GIJN, em 2022.

O desafio particular dos deepfakes de áudios

A detecção de áudios falsos gerados por IA apresenta desafios significativos, principalmente devido a características intrínsecas que os diferenciam de outros conteúdos.

Os deepfakes em formato áudio “são mais fáceis e mais baratos de criar do que vídeos falsos”, explica Olga Yurkova formadora de jornalismo e co-fundadora da StopFake.org, uma organização de fact-check independente ucraniana.

O avanço tecnológico das ferramentas de geração de voz tem sido exponencial, sendo hoje a criação de áudios falsos convincentes uma tarefa relativamente fácil para a IA, mesmo com pequenas amostras de voz de uma pessoa. Acresce que estas ferramentas estão acessíveis a qualquer pessoa, dados os seus baixos custos.

Yurkova refere ainda, citada pelo GIJN, que os áudios deepfake “têm menos pistas de contexto que permitam a sua detecção à vista desarmada”, porque é mais difícil identificar inconsistências na aparência ou nos movimentos corporais.

Finalmente, estes conteúdos “têm maior potencial para ser disseminados, por exemplo, em conversas de WhatpsApp”, sendo muito rápida a propagação de áudios falsos, antes que possam ser feitas verificações de legitimidade.

Dicas práticas para detectar deepfakes

Rowan Philip deixa uma lista extensa de estratégias a que os jornalistas podem recorrer quando estão pertante conteúdos potencialmente falsos.

  • Identificar e sinalizar clipes suspeitos tão rápido quanto possível. Para isso, alguns editores sugerem a criação de uma linha de contacto com o público (um número de WhatsApp, por exemplo), para onde podem ser enviados os clipes, permitindo um sistema de alerta alargado.
  • Colaborar em rede para potenciar os resultados na identificação de áudios falsos. No Brasil, por exemplo, no contexto de uma investigação, várias redacções usaram o mesmo número para partilha de alertas. A criação de grupos de jornalistas dedicados à verificação de factos também pode ser útil.
  • Usar serviços como o Reality Defender, que envia alertas instantâneos para o email.
  • Implementar sistemas de alerta para conteúdos falsos que se estão a tornar virais. A presença dos conteúdos em várias plataformas, bem como a partilha por activistas partidários, são indicadores a ter em conta nesta análise.
  • Recorrer a ferramentas, como o BuzzSumo, que permitem ter uma noção da quantidade de partilhas que são feitas e em quanto tempo.
  • Utilizar ferramentas de detecção específicas, como o AI Voice Detector e o PlayHT Classifier, para verificar a autenticidade dos áudios.
  • Criar parcerias com organizações independentes de verificação de fatos especializadas em análise de conteúdos falsos.
  • Não sendo possível comprovar que uma pessoa não disse algo, dar destaque a informações factuais que mostrem as pessoas em causa a comentar o mesmo assunto.
  • Não deixar de recorrer às formas tradicionais de verificação de dados.
  • Envolver os reguladores, pressionando para a criação de regulamentos ou iniciativas legislativas de combate à disseminação de informação falsa gerada por IA.
  • Não esquecer que, às vezes, clipes suspeitos podem ser verdadeiros e que as inconsistências ou fragilidades na voz podem resultar de contextos reais de pressão ou dificuldades na gravação.

Finalmente, “os especialistas sublinham que a confiança nos média é o elemento crucial no combate aos deepfakes em áudio — passa por os meios noticiosos serem tão rigorosos e factuais nas suas coberturas das campanhas anteriores e nas reportagens em momentos eleitorais, que o público acreditará nas suas investigações sobre os deepfakes nas vésperas de eleições”, pode ler-se no artigo.

Para mais estratégias e referências técnicas, o artigo completo está disponível em: https://gijn.org/resource/tipsheet-investigating-ai-audio-deepfakes/.

(Créditos da fotografia: Frederick Medina no Unsplash)