Um exemplo conhecido é o que foi feito pelo humorista e cineasta Gordon Peele, que criou para o BuzzFeed um vídeo que, entre outras coisas, chama “completo idiota” a Donald Trump. Outros, mais correntes, apropriam-se do rosto de actrizes famosas de Hollywood e conseguem colocá-lo nos corpos de protagonistas de filmes pornográficos, realizando deste modo imitações muito realistas e, naturalmente, lesivas de quem teve a sua imagem usurpada para tais fins. 

Segundo o artigo que citamos, da Media-tics, os investigadores ao serviço da DARPA - Defense Advanced Research Projects Agency procuraram e aproveitaram uma brecha na tecnologia usada para a criação destas falsificações, a saber: os DeepFakes “nunca mostram a pessoa que foi manipulada a pestanejar, porque a inteligência artificial que os cria é baseada em imagens estáticas”. 

Ou, em casos em que haja pestanejar, “os movimentos oculares não imitam com exactidão os que são naturalmente efectuados por qualquer ser humano”. É então possível identificar “a exploração de sinais fisiológicos deste tipo, os quais – pelo menos por enquanto -  são difíceis de imitar para fazer DeepFakes”. 

“Para desmontar um DeepFake é preciso, em primeiro lugar, examinar o arquivo digital em busca de indícios que sugiram uma montagem de imagens, analisando cortes ou pequenos erros de edição. Depois, é preciso prestar atenção às distintas propriedades físicas das imagens, na busca de possíveis incongruências ou erros de junção. Neste sentido, é possível ainda verificar se o vídeo mostra características climáticas incompatíveis com a sua suposta data de realização, ou um fundo que não encaixa com a sua teórica localização de filmagem.” 

“Treinar uma ferramenta de inteligência artificial para detectar estas falhas é a tarefa que tem em mãos o projecto da agência DARPA, embora seja necessário tempo para o conseguir  -  e, de qualquer modo, o mundo digital já demonstrou que a detecção das mentiras costuma chegar depois de se terem tornado ‘virais’ e feito o seu trabalho.” 

“Esperam-nos muitas aventuras...”  - conclui o autor. 

Podemos acrescentar outro exemplo recente das possibilidades assustadoras da tecnologia digital usada por estes maus caminhos. Charlie Warzel, um jornalista do BuzzFeed, preocupado com a predição de um futuro em que essa tecnologia pode estar perto de “democratizar a capacidade de manipular a percepção e falsificar a realidade”, chegando a uma espécie de “Infocalipse”, resolveu testar as suas próprias competências neste terreno. 

Procedeu a uma recriação digital da sua voz e foi melhorando até chegar ao ponto de a tornar tão convincente que podia “enganar a pessoa que claramente conhece a minha voz melhor do que ninguém: a minha mãe”. 

Os passos técnicos seguidos estão descritos no artigo de que incluímos aqui o link, em BuzzFeedNews. O engano resultou, e ela levou tempo até aceitar que aquilo que escutou tinha sido criado por inteligência artificial: 

“Eu não sabia que uma coisa como esta era possível”  -  disse mais tarde. “Nunca duvidei, nem por um segundo, que eras tu.”

 

O artigo de Miguel Ossorio Vega, em Media-tics, e o de Charlie Warzel, em BuzzFeedNews.