“Embora exista um conjunto crescente de ferramentas e serviços pagos disponíveis que afirmam ser capazes de detectar automaticamente a presença de falsificações geradas por inteligência artificial (IA), estudos recentes publicados por cientistas informáticos e especialistas em aprendizagem automática revelam que a tecnologia subjacente a estas soluções não acompanhou, em grande medida, o rápido avanço dos modelos de difusão que geram conteúdos convincentes e enganadores em grande escala”. A afirmação é da jornalista Kaylee Williams e faz parte de um ensaio publicado no site da Columbia Journalism Review, que explora a forma como os criadores de ferramentas de detecção estão a perder cada vez mais terreno para os líderes da indústria de IA generativa.  

Para ajudar os jornalistas a entenderem a rápida evolução da detecção de deepfakes, os investigadores do Tow Center for Digital Journalism analisaram a literatura recente sobre a identificação de deepfakes e destacaram algumas conclusões sobre o estado actual da tecnologia de detecção de deepfake, que as redacções devem conhecer: 

Nem todos os tipos de detecção de IA são os mesmos (ou iguais) 

A eficácia das ferramentas para detectar manipulação por IA depende do tipo de media avaliada e do tipo de manipulação que se pretende identificar. A autora dá como exemplo uma meta-análise de 2023 que avaliou uma variedade de métodos usados para detectar manipulação em arquivos de áudio. Foi descoberto que, “embora a maioria dos métodos de detecção de deepfake de áudio existentes tenham alcançado um desempenho impressionante em testes no domínio, o seu desempenho cai drasticamente ao lidar com conjuntos de dados fora do domínio em cenários da vida real”. Isto porque as ferramentas de detecção são elas próprias alimentadas por algoritmos, que são treinados num número necessariamente limitado de ficheiros de áudio falsos. Mas quando lhes é pedido que detectem um tipo de conteúdo que foi gerado utilizando uma técnica que não está abrangida nos seus dados de treino, têm dificuldade em produzir resultados exactos. 

A situação é semelhante em vídeos. Uma experiência mostrou que as ferramentas analisam inconsistências visuais, como cores, artefactos, movimentos corporais não naturais e meta dados, mas não conseguem detectar técnicas de manipulação fora dos padrões com os quais foram treinadas.  

“Esta é uma falha fundamental das ferramentas de detecção, porque à medida que o software de IA generativa continua a avançar e a proliferar, continuará a estar um passo à frente das ferramentas de detecção”.  

As técnicas de detecção podem ser facilmente contornadas por aqueles que sabem como funcionam 

Os autores da experiência mencionada acima salientam que a maior parte das ferramentas de detecção não está preparada para lidar com tentativas de evasão por parte de criadores de deepfakes, que podem introduzir interferências durante o processo de criação para escapar da detecção.  

"Os criadores de deepfake podem fazer ajustes visuais ou estatísticos específicos numa imagem ou vídeo falso que têm maior probabilidade de ajudá-lo a ‘voar sob o radar’ das ferramentas de detecção. Estes ajustes incluem a utilização de filtros de imagem que suavizam texturas não naturais e alteram a iluminação de uma imagem, ou a remoção manual de inconsistências visuais e anomalias que o detector possa identificar”. 

Este cenário representa um desafio significativo para o jornalismo, uma vez que “agentes maliciosos com bons recursos, incluindo governos estrangeiros, têm a capacidade de evitar a detecção até dos métodos mais avançados”. 

Mesmo quando a detecção é possível, a interpretação dos resultados continua a ser um desafio 

A autora conta que, em Fevereiro de 2024, as investigadoras Shirin Anlen e Raquel Vázquez Llorente avaliaram a fiabilidade de várias ferramentas de detecção de deepfake populares entre os jornalistas, como Optic, Hive Moderation, V7, Invid e Deepware Scanner. Concluíram que, embora estas ferramentas possam ser úteis como ponto de partida para a verificação de imagens, os resultados são difíceis de interpretar. Isto ocorre porque a “maioria dos resultados fornecidos pelas ferramentas de detecção de IA apresentam um intervalo de confiança ou uma determinação probabilística (por exemplo, 85% humano), enquanto outros apenas fornecem um resultado binário ‘sim/não’, sem explicar detalhes cruciais como o modelo de detecção utilizado, o conjunto de dados usado para o treino e a sua actualização”. 

Kaylee Williams exemplifica: “Se um jornalista carregar uma imagem duvidosa numa ferramenta de detecção e a ferramenta disser que a fotografia é 70% humana e 30% artificial, isso diz ao repórter muito pouco sobre quais dos elementos da imagem foram alterados digitalmente e ainda menos sobre a sua veracidade geral. Rotular uma imagem como ‘artificial’, mesmo que parcialmente, implica (potencialmente de forma falsa) que a imagem foi significativamente alterada em relação ao seu estado original, mas não diz nada sobre a forma como a natureza, o significado ou as implicações da imagem podem ter mudado”. 

As ferramentas de detecção podem contribuir para uma falsa sensação de segurança 

Uma experiência realizada no ano passado na Universidade do Mississippi mostrou que jornalistas, ao usarem ferramentas de detecção de deepfake, podem depositar demasiada confiança nas mesmas, especialmente quando os resultados coincidem com os seus instintos ou quando outras verificações são inconclusivas. 

Mesmo quando os jornalistas não tomavam os resultados como definitivos, as ferramentas aumentavam a dúvida e a confusão, especialmente se contradiziam outras etapas de verificação. Os autores desta experiência apuraram que “muitas vezes, os resultados das ferramentas de detecção aumentavam a incerteza do participante se os seus resultados contradissessem as suas outras etapas de verificação. Por vezes, uma resposta do detector podia afectar a sua percepção das acções subsequentes e mesmo das anteriores, e podiam suspeitar de outras personagens do cenário”. 

A jornalista considera que estes resultados sugerem que a “fé cega” na detecção de IA pode enfraquecer o rigor jornalístico e levar à disseminação de informações falsas ou enganosas. Conclui que “não se pode confiar nas ferramentas de detecção de deepfake para detectar de forma fiável conteúdos gerados ou manipulados por IA. Embora sejam frequentemente comercializadas como soluções para o problema crescente dos media sintéticos enganadores, a realidade é muito mais complicada”.  

A autora encerra o texto com uma “lição” para as redacções: as ferramentas de detecção de deepfake podem ser úteis para ajudar os jornalistas a lidar com o cenário crescente de conteúdos gerados por IA, mas devem ser usadas com cautela e cepticismo e não como uma fonte definitiva de respostas confiáveis.

(Créditos da imagem: Freepik)