“Deep Fakes”, uma nova ameaça para o jornalismo “online”
Um exemplo conhecido é o que foi feito pelo humorista e cineasta Gordon Peele, que criou para o BuzzFeed um vídeo que, entre outras coisas, chama “completo idiota” a Donald Trump. Outros, mais correntes, apropriam-se do rosto de actrizes famosas de Hollywood e conseguem colocá-lo nos corpos de protagonistas de filmes pornográficos, realizando deste modo imitações muito realistas e, naturalmente, lesivas de quem teve a sua imagem usurpada para tais fins.
Segundo o artigo que citamos, da Media-tics, os investigadores ao serviço da DARPA - Defense Advanced Research Projects Agency procuraram e aproveitaram uma brecha na tecnologia usada para a criação destas falsificações, a saber: os DeepFakes “nunca mostram a pessoa que foi manipulada a pestanejar, porque a inteligência artificial que os cria é baseada em imagens estáticas”.
Ou, em casos em que haja pestanejar, “os movimentos oculares não imitam com exactidão os que são naturalmente efectuados por qualquer ser humano”. É então possível identificar “a exploração de sinais fisiológicos deste tipo, os quais – pelo menos por enquanto - são difíceis de imitar para fazer DeepFakes”.
“Para desmontar um DeepFake é preciso, em primeiro lugar, examinar o arquivo digital em busca de indícios que sugiram uma montagem de imagens, analisando cortes ou pequenos erros de edição. Depois, é preciso prestar atenção às distintas propriedades físicas das imagens, na busca de possíveis incongruências ou erros de junção. Neste sentido, é possível ainda verificar se o vídeo mostra características climáticas incompatíveis com a sua suposta data de realização, ou um fundo que não encaixa com a sua teórica localização de filmagem.”
“Treinar uma ferramenta de inteligência artificial para detectar estas falhas é a tarefa que tem em mãos o projecto da agência DARPA, embora seja necessário tempo para o conseguir - e, de qualquer modo, o mundo digital já demonstrou que a detecção das mentiras costuma chegar depois de se terem tornado ‘virais’ e feito o seu trabalho.”
“Esperam-nos muitas aventuras...” - conclui o autor.
Podemos acrescentar outro exemplo recente das possibilidades assustadoras da tecnologia digital usada por estes maus caminhos. Charlie Warzel, um jornalista do BuzzFeed, preocupado com a predição de um futuro em que essa tecnologia pode estar perto de “democratizar a capacidade de manipular a percepção e falsificar a realidade”, chegando a uma espécie de “Infocalipse”, resolveu testar as suas próprias competências neste terreno.
Procedeu a uma recriação digital da sua voz e foi melhorando até chegar ao ponto de a tornar tão convincente que podia “enganar a pessoa que claramente conhece a minha voz melhor do que ninguém: a minha mãe”.
Os passos técnicos seguidos estão descritos no artigo de que incluímos aqui o link, em BuzzFeedNews. O engano resultou, e ela levou tempo até aceitar que aquilo que escutou tinha sido criado por inteligência artificial:
“Eu não sabia que uma coisa como esta era possível” - disse mais tarde. “Nunca duvidei, nem por um segundo, que eras tu.”
O artigo de Miguel Ossorio Vega, em Media-tics, e o de Charlie Warzel, em BuzzFeedNews.