A responsabilidade destas orientações, elaboradas pelo editor da revista, Gideon Lichfield, indica algumas garantias sobre aquilo que a “Wired” não fará com a AI. “Aparentemente pode parecer paradoxal que uma publicação como a Wired tenha uma política de maioritariamente evitar usar a AI” - afirmou Lichfield a uma publicação especializada em jornalismo, o “Nieman Lab”. E prossegue: “Creio que os nossos leitores apreciam a transparência e a tentativa de estabelecer regras claras que sublinhe aquilo que significa fazer bom jornalismo”.

Desde que o ChatGPT foi lançado em Novembro do ano passado a “Wired” tem debatido a sua utilização no contexto da produção de conteúdos. Alguns ensaios experimentais mostraram erros factuais e segmentos significativos de textos que eram plágio, e isso levou os editores e jornalistas a aprofundarem o assunto.

Lichfield conta que o debate começou por querer perceber se seria legítimo usar a AI para editar um artigo, escrever títulos ou destaques ou ainda para propôr temas para desenvolvimento futuro de artigos.

Foi daí que nasceu a ideia de estabelecer limites à forma de utilização da AI e isto porque, sublinha, “em geral todos reconhecemos que não é um instrumento ideal para fazer muito daquilo que necessitamos e, embora esteja convencido que pode melhorar em muitas áreas, existe a forte convicção que a sua capacidade na área da comunicação e do jornalismo está a ser exagerada.”

A regra principal que a “Wired” estabeleceu foi a de que a AI não seria utilizada para elaborar de raiz ou editar textos com o objectivo de serem publicados, ou sequer para fazer resumos sobre matérias que os artigos abordem. Esta regra aplica-se não só aos artigos da revista, mas também a newsletters de características editoriais.

Segundo a equipa de Lichfield a AI produz textos aborrecidos, por vezes com erros e tendenciosos e não consegue substituir aquilo que alguém que escreve como profissão faz, que é estar permanentemente a pensar na melhor forma de falar sobre temas complexos de forma a que possam ser entendidos por não especialistas.

No entanto a “Wired” admite que pode vir a utilizar a AI para sugerir títulos, destaques ou até posts para redes sociais - mas a utilização do que assim for produzido tem que ser sempre validada por um editor. A AI pode acelerar o processo mas não deve ser usada sem supervisão.

Em relação à sugestão de temas para artigos futuros a “Wired” reconhece que está a fazer testes para aferir a capacidade de a AI dar contributos válidos, sublinhando mais uma vez que o que produzir será sempre, aferido por editores e comparado com sugestões recolhidas de forma tradicional no processo de brainstorm editorial.

Um outro ponto em que a “Wired” estabelece claramente uma linha vermelha é na não utilização de imagens geradas por AI, de aparência semelhante a fotografias.

A “Wired” sublinha que irá continuar a utilizar fotografias de bancos de imagem como forma de defender o trabalho dos fotógrafos e manter o equilíbrio financeiro de todo o sector, pelo menos até as empresas de AI desenvolverem uma forma de compensar os autores das imagens originais. E, acessoriamente, alerta para as consequências legais da alterações não autorizadas de imagens, sejam fotografias ou ilustrações, já que o número de queixas pela sua utilização abusiva está a explodir.

Mas claro que Gideon Lichfield sublinha que a AI está no início, vai desenvolver-se e que a “Wired” irá adequar a posição sobre a sua utilização tendo em conta a evolução verificada.

Esta opinião vem afinal de encontro àquilo que muitos responsáveis da indústria afirmam e que pode ser sintetizado nesta frase de um artigo de Jeff Israely, também no Nieman Lab: “Se a actual trajetória se mantiver, é muito natural que instrumentos de escrita da AI comecem a introduzir-se no processo de trabalho normal das redacções, da mesma forma que num passado recente motores de busca como o Google facilitaram o research e outros, como o Google Translator possibilitaram o acesso a mais fontes e informações, de forma mais rápida”.