Num artigo publicado no “The Verge”, Alex Cranz, dá conta de que a OpenAI actualizou as suas políticas para começar a abordar a questão de “deepfakes”.

A OpenAI anunciou um plano abrangente para enfrentar a desinformação eleitoral, atualizando as políticas de uso de suas ferramentas, incluindo ChatGPT e DALL-E. Segundo o Wall Street Journal, os utilizadores agora estão proibidos de utilizar essas ferramentas para se passarem por candidatos ou governos locais, participar de campanhas ou "lobbying", desencorajar o voto ou distorcer o processo de votação.

Além disso, a OpenAI pretende incorporar credenciais digitais da Coalition for Content Provenance and Authenticity (C2PA) nas imagens geradas pelo DALL-E, com o objectivo de facilitar a identificação de imagens falsas. Empresas como Microsoft, Amazon, Adobe e Getty também estão a colaborar com a C2PA para combater a desinformação propagada por imagens geradas por IA.

Para direccionar questões de votação nos Estados Unidos, as ferramentas da OpenAI serão vinculadas ao CanIVote.org, uma autoridade confiável online para informações sobre como e onde votar nos EUA.

No entanto, é importante destacar que estas iniciativas estão em fase de implementação e dependem em grande medida da denúncia de comportamentos inadequados por parte dos utilizadores. Dada a natureza em constante evolução da inteligência artificial, a eficácia das medidas para combater a desinformação eleitoral ainda é incerta. 

A autora salienta, por isso, que a literacia mediática continua a ser a melhor estratégia, incentivando a verificação de notícias suspeitas e realização de pesquisas adicionais ao encontrar informações questionáveis.

“Por agora, a sua melhor aposta continuará a ser a literacia mediática. Isso significa questionar todas as notícias ou imagens que pareçam demasiado boas para serem verdadeiras e, pelo menos, fazer uma pesquisa rápida no Google se o seu ChatGPT descobrir algo completamente louco”, conclui.