Meta reforça vigilância em conteúdos
A empresa Meta, proprietária do Facebook e do Instagram, anunciou alterações à sua política de gestão de conteúdos que são alterados digitalmente, com ou sem recurso à inteligência artificial (IA), noticia o The Guardian.
A decisão surge numa altura em que estão a aproximar-se as eleições norte-americanas e em que é crescente o risco de disseminação de conteúdos falsos ou manipulados, aumentando os níveis de desinformação.
A gigante tecnológica passará a classificar, com uma espécie de “etiqueta”, os conteúdos partilhados nas suas redes que sejam gerados ou alterados por IA, uma medida que expande os critérios antes considerados para este tipo de classificação e que afectavam uma pequena parte das publicações.
Além disso, será também atribuída uma “etiqueta” de aviso ainda mais visível para classificar os conteúdos alterados digitalmente, criados por IA ou não, desde que configurem risco “particular elevado” de “enganar o público em assuntos de importância”, disse num blogue, Monica Bickert, vice-presidente da Meta para os assuntos de política de conteúdos, citada pelo The Guardian.
Estas decisões correspondem a uma mudança na forma como a empresa gere os conteúdos manipulados: enquanto antes algumas publicações eram retiradas, agora estas mantêm-se disponíveis, mas com informação sobre a sua origem real ou alterada artificialmente.
Estas medidas serão aplicadas nas redes sociais Facebook, Instagram e Threads.
(Créditos da fotografia: Solen Feyissa no Unsplash)