Guia para navegar “online” na era da Inteligência Artificial
Os anúncios de filtro, por sua vez, aparecem cada vez que um produtor de conteúdo coloca novos conteúdos sobre o original. Contudo, se alguém fizer um “download” das imagens, estas perdem o alerta de filtro, e passam a ser tomadas como modelos iniciais.
Já os avisos das plataformas são aplicados pelas próprias redes sociais, sempre que identificam conteúdos manipulados, assemelhando-se aos alertas para “fake news”.
Finalmente, os avisos de outras entidades são emitidos por jornalistas ou “fact-checkers”, que se dedicam a combater os efeitos nocivos deste tipo de conteúdo.
Outros indicadores de “deep fakes” são as descrições de perfis e de determinadas publicações: alguns produtores têm, agora, o cuidado de identificar o tipo de temas que partilham, sublinhando que os utilizadores não devem tomá-los como verdadeiros.
Além disso, algumas produções contém avisos no início, meio ou fim de cada vídeo.
Contudo, alguns utilizadores de IA criam “deep fakes” com o propósito de disseminar mensagens nocivas. Por isso mesmo, os “fact-checkers” passaram a utilizar “anotações”, para distinguir partes do conteúdo que o identificam como manipulado.
Além disso, alguns profissionais colocam os conteúdos lado a lado, para que os cidadãos percebam que um dos vídeos/imagens foi adulterado.
A tipografia de programação pode, igualmente, ajudar a identificar “deep fakes”, já que, por norma, estas produções têm um tipo de fonte diferente.
Finalmente, o “Nieman Lab” destaca a especulação “online”, que toma posse sempre que os conteúdos adulterados não foram, devidamente, etiquetados.
Através deste guia, os autores pretenderam ajudar os leitores a perceber as principais tendências de IA nas redes sociais. Será, posteriormente, publicada uma segunda parte deste manual, onde serão exploradas considerações sobre a tecnologia.