As ferramentas de detecção de IA para travar manipulação mediática

Na altura em que a imagem do Papa Francisco com um casaco branco volumoso, gerada por inteligência artificial, se tornou viral, Emmanuelle Saliba, com cerca de dez anos de carreira jornalística, trabalhava com técnicas emergentes de investigação de fontes abertas para ajudar redacções a confirmar a autenticidade de fotografias, especialmente nas redes sociais. Muitas vezes, o seu trabalho consistia em determinar se as imagens tinham sido manipuladas com Photoshop ou reutilizadas de forma enganosa.
O Columbia Journalism Review conta que Saliba ajudou a desenvolver o protocolo de verificação da NBC e, quando a imagem do Papa Francisco começou a circular, juntou-se à ABC para cobrir o mundo em rápida evolução dos meios de comunicação gerados por IA. Ficou espantada com a proliferação dos meios de comunicação sintéticos e “aterrorizada com o que isso pressagiava”.
O facto de um amador poder produzir aquela imagem do Papa significava não só que uma imagem gerada por IA podia passar por real, mas também o contrário: que provas fotográficas legítimas podiam ser desacreditadas de forma plausível. “Não se trata apenas de detectar falsidades, trata-se de provar a realidade”, disse Saliba. Começou então a corrida para desenvolver uma ferramenta que pudesse fazer essa distinção de forma precisa e fiável.
Durante uma viagem em reportagem à Califórnia, Emmanuelle Saliba conheceu Hany Farid, cientista informático e director da Escola de Informação da Universidade da Califórnia, em Berkeley. Durante a conversa, Saliba partilhou com ele as suas preocupações sobre a ameaça dos conteúdos gerados por IA nas próximas eleições presidenciais. Durante décadas, Hany Farid explorou técnicas computacionais para detectar manipulações digitais de fotografias. Com os recentes avanços na aprendizagem automática, Farid redireccionou o seu foco para modelos capazes de identificar inconsistências visuais típicas de imagens geradas por IA, como estranhezas de perspectiva e luz, que resultam em distorções de escala ou sombras fora do lugar, difíceis de identificar a olho nu. Saliba pensou que, se esse modelo fosse transformado numa ferramenta acessível, o trabalho de Farid seria uma grande mais-valia para os jornalistas.
Entretanto, Farid fundou a empresa GetReal, com serviços de detecção de IA, incluindo a detecção de deepfakes em tempo real durante videoconferências. Saliba deixou a ABC e juntou-se à “missão” de Farid, com o objectivo de ajudar a optimizar o GetReal para uso em redacções.
A Hive Moderation, outra ferramenta para monitorizar conteúdos de crowdsourcing, declara: “Disseram que não podia ser resolvido. Nós resolvemo-lo e prometemos que o seu modelo oferece uma solução automatizada com precisão ao nível humano". Já a ferramenta Undetectable AI afirma que “esta ferramenta garante que pode confiar no que vê”. O Columbia Journalism Review observa que, com tantas opções, separar os media reais dos sintéticos parece agora depender de aplicar a ferramenta certa no momento certo.
No entanto, como explica Siwei Lyu, professor de informática na Universidade de Buffalo e especialista em detecção de deepfakes, a realidade é mais complexa. À medida que a tecnologia de detecção de IA evolui, também a fidelidade das imagens geradas por IA melhora, exigindo que os modelos de detecção sejam constantemente actualizados.
Além disso, as imagens e vídeos sintéticos mais problemáticos — aqueles criados como parte de uma fraude ou para enganar deliberadamente o público — são pensados especificamente para evitar a detecção. Tem havido esforços para incentivar os geradores de IA, como a OpenAI, a dificultar a manipulação intencional, incluindo uma "marca de água" sempre que algo é gerado com o seu software. Em 2023, Joe Biden emitiu uma ordem executiva para promover esta medida. No entanto, como afirmou Siwei Lyu, “do outro lado desses algoritmos estão pessoas reais” que “se tornam muito boas em esconder o seu rasto.”
Embora algumas redes sociais, como a Meta, se tenham comprometido a rotular conteúdos criados ou modificados por IA, um estudo recente realizado por investigadores da Austrália e da Coreia do Sul revelou que mesmo os melhores modelos de detecção só conseguem identificar correctamente o conteúdo gerado por IA cerca de dois terços do tempo.
Ocasionalmente, contas de notícias nas redes sociais caem em armadilhas de desinformação. Em Maio passado, a conta War_Monitors no X, que tem mais de um milhão de seguidores, repostou uma fotografia alegando mostrar uma explosão no Pentágono, a mesma acção foi realizada pela conta FinancialJuice, seguida por mais de meio milhão de pessoas. Para reforçar a credibilidade, esta última citou “fontes do Twitter” não especificadas como origem da informação. Ambas as contas apagaram os posts após os bombeiros locais desmentirem a foto nas redes sociais. No entanto, o incidente já tinha sido partilhado ou mencionado quase quatro mil vezes e provocou uma queda no mercado de acções. Além disso, uma conta verificada que se fazia passar por afiliada da CNN também publicou a imagem, o que levantou questões sobre o processo de verificação do X, sendo a conta posteriormente removida da plataforma.
"Num mundo em que as fotografias e os vídeos não podem ser tomados pelo seu valor facial, talvez não possamos contar apenas com a tecnologia para resolver problemas criados por ela própria”, salienta o texto do Columbia Journalism Review. Como afirmou Donnell Probst, director-adjunto da National Association for Media Literacy Education (NAMLE), “a única coisa que está a faltar na conversa é a parte educativa.” A NAMLE é uma organização sem fins lucrativos que desenvolve recursos para ajudar as crianças a avaliar a legitimidade e a origem do que encontram online, incluindo imagens e vídeos gerados por IA. Probst explicou que a questão não é que as ferramentas de verificação não tenham valor, mas sim que o foco do NAMLE está em “criar parcerias humano-computador”, em vez de depender da tecnologia para “terceirizar o nosso pensamento crítico.”
Esta abordagem também se aplica aos adultos. Um exemplo é a imagem de uma menina com um colete salva-vidas a segurar o seu cão, uma criação gerada por IA que se tornou viral após o furacão Helene, que atingiu o sudeste dos Estados Unidos em Setembro de 2024. Embora seja difícil determinar a origem da imagem, rapidamente se espalhou em vídeos mal atribuídos a outros desastres naturais e teorias da conspiração sobre inundações, com causas que iam desde depósitos de lítio até ao governo federal. Mesmo depois de a imagem ser desmascarada como falsa, as pessoas continuaram a partilhá-la. Como ressalta o texto, “a certa altura, o fardo dos jornalistas passa a ser não só verificar se as imagens são credíveis, mas também persuadir as pessoas a preocuparem-se com a realidade.”
Lyu acredita que é crucial continuar a investir na tecnologia de detecção de IA: “O que estamos a tentar fazer é elevar a fasquia para que não seja possível, com apenas alguns cliques no ecrã, criar algo em que milhões de pessoas caiam. Queremos que seja cada vez mais difícil. Esta não é uma batalha da qual possamos desistir.”
(Créditos da imagem: Freepik)