A defesa de sociedades abertas exige plataformas com transparência
Raúl Magallón, professor do departamento de Comunicação da Universidade Carlos III de Madrid, analisa o impacto crescente da inteligência artificial (IA) na propagação da desinformação digital num artigo para os Cuadernos de Periodistas, parceiros do CPI.
O autor sublinha que “nos últimos tempos, a inteligência artificial converteu-se num catalisador para a dopamina que alimenta as batalhas culturais, desenvolvendo uma esfera pública onde o que mais importa não é tanto se o que é partilhado é falso, mas sim a sua capacidade de alimentar narrativas e imaginários”. Neste sentido, Magallón argumenta que, mais do que uma batalha ideológica, está em causa o desafio de diferenciar estruturalmente entre os heróis e as narrativas alternativas aos heróis.
Os deepfakes e a desinformação
Os deepfakes surgiram inicialmente como uma ferramenta para criar vídeos manipulados de figuras públicas, especialmente artistas e personagens políticas. Garriga et al. (2024) identificam características iniciais como “desaceleração de movimentos”, “alterações faciais” e partilha a partir de “contas não oficiais”.
Contudo, o panorama mudou rapidamente. Hoje, as imagens e vídeos com IA têm novas marcas: “baseiam-se actualmente em vozes robóticas que não modulam a afinação, movimentos repetitivos da cabeça, textura da pele uniforme, etc.”
Além da exploração sensacionalista, os deepfakes têm sido usados como ferramentas de manipulação política. A própria Casa Branca já recorreu à IA para gerar imagens de Donald Trump vestido como Papa ou como mestre Jedi da “Guerra das Estrelas”. Isto demostra a forma como os memes e referências da cultura pop estão a ser usados como “narrativa alternativa” ao jornalismo factual.
“O uso de deepfakes para desenvolver narrativas corporativas e estratégias de comunicação ou para tentar golpes e fraudes por meio de imitação de voz ou imagem em tempo real está a aumentar, portanto, este é um fenómeno no qual devemos continuar a explorar as suas consequências em diferentes campos e desenvolver campanhas de consciencialização pública”, diz o autor.
O papel das plataformas digitais
Magallón reflecte sobre a normalização do uso da IA, que faz com que o seu consumo, principalmente entre os jovens, “ocorra muito antes que a educação formal debata e explique as suas limitações e disfunções sociais”.
Que responsabilidade podem ter as plataformas neste fenómeno? O autor critica a resposta frágil das plataformas digitais. Embora empresas como Meta, X, YouTube e TikTok exijam que os utilizadores identifiquem conteúdos criados por IA, os sistemas de detecção são pouco eficazes: “O processo automatizado de identificação não funciona bem o suficiente”, e a moderação humana é “severamente limitada pela grande quantidade de conteúdos”. Para além disso, o incentivo às “notas da comunidade” também tem um impacto limitado no controlo da desinformação, o que permite que conteúdos manipulados circulem rapidamente antes de qualquer verificação eficaz.
Actualmente, as medidas que estão a ser alvo de discussão são as seguintes:
- Etiquetas claras que identifiquem conteúdos criados por IA;
- Desmonetização de contas que usam IA para gerar receita;
- Regulamentação que proíba deepfakes políticos ou pornográficos;
- Marcas de água (visíveis ou invisíveis) que permitam rastrear a origem dos conteúdos;
- Desenvolvimento de normas como a C2PA (Coalition for Content Provenance and Authenticity), que visa certificar a autenticidade de ficheiros digitais.
O papel das organizações de verificação
Apesar dos avanços tecnológicos, continua a ser fundamental o trabalho das organizações de verificação de factos para identificar e mitigar o impacto dos deepfakes. O autor defende que as plataformas devem poder “interromper temporariamente” a viralização de conteúdos suspeitos até que sejam etiquetados correctamente, reforçando a responsabilidade editorial das empresas tecnológicas.
Magallón insiste que “as plataformas ainda precisam de elevados padrões de transparência, responsabilização e abrangência”, bem como iniciativas de literacia mediática e ferramentas de verificação acessíveis aos utilizadores.
Na União Europeia, está em vigor a Lei dos Serviços Digitais (DSA), embora “a sua aplicação permaneça muito limitada” nesta área. Espera-se que o novo Código de Conduta sobre a Desinformação, que entrou em vigor no dia 1 de Julho, ajude a colmatar estas falhas. Ainda assim, o autor indica que persistem lacunas importantes, como o acesso limitado a dados para investigadores e a falta de mecanismos eficazes de coordenação público-privada.
“A nível nacional, resta saber como o direito à rectificação de conteúdos digitais pode ser mais desenvolvido, que medidas são necessárias, na perspectiva dos processos eleitorais, para mitigar o seu impacto na opinião pública e qual o papel dos organismos independentes criados para monitorizar e identificar estes tipos de riscos sistémicos”, acrescenta.
Magallón conclui o seu texto, dizendo que “se quisermos continuar a defender sociedades abertas, também teremos que começar a exigir tecnologias mais abertas e transparentes que permitam uma responsabilização mais ágil”.
(Créditos da imagem: Freepik)