Para a UER, modelos de Inteligência Artificial distorcem informação noticiosa
Um estudo coordenado pela União Europeia de Radiodifusão (UER) revelou que os assistentes de Inteligência Artificial distorcem informações noticiosas em cerca de 45% dos casos, algo que demonstra limitações na fiabilidade destes sistemas quando utilizados para responder a perguntas sobre a actualidade.
A investigação contou com a participação de 22 meios de comunicação públicos de 18 países, abrangendo 14 idiomas. Em Portugal, a RTP foi a representante nacional e concluiu que 44% das respostas das IAs analisadas apresentaram erros relevantes, desde imprecisões no conteúdo até ausência de fontes verificáveis.
Foram avaliados quatro dos principais modelos globais de IA: ChatGPT, Copilot, Gemini e Perplexity. Entre eles, o Gemini destacou-se pelos piores resultados — “problemas significativos foram detectados em três quartos das suas respostas, mais do dobro dos outros assistentes”, sobretudo devido à fraca citação de fontes.
No total, 45% das respostas apresentavam pelo menos um erro grave, 31% tinham problemas de origem ou fonte e 20% continham imprecisões ou detalhes inventados. O estudo exemplifica: em Junho de 2025, à pergunta “Quem venceu as eleições legislativas?”, o modelo Copilot respondeu com os resultados de 2024, ignorando as eleições realizadas uma semana antes da questão.
Os investigadores sublinham que as informações desactualizadas foram uma das falhas mais recorrentes. Os resultados demonstram que “os assistentes de IA ainda não são uma forma fiável de consumir informação”, embora estejam a ser cada vez mais utilizados, sobretudo pelos mais jovens. Um relatório do Instituto Reuters indicou que 15% dos menores de 25 anos usam modelos de IA semanalmente para obter resumos de notícias.
(Créditos da imagem: Freepik)