A ascensão da Inteligência Artificial (IA) no jornalismo forneceu uma ferramenta poderosa para a criação de conteúdos mas, levanta também questões éticas complexas sobre transparência, preconceito e o papel dos jornalistas, humanos.

“O uso de ferramentas de IA generativas pode afectar a confiança, a precisão, a responsabilidade e as tendências nas redacções”, diz Charlotte Tobitt, no seu recente artigo publicado no Press Gazette.

“Vou esclarecer imediatamente: a frase acima foi escrita pelo ChatGPT, quando lhe foi pedido para fazer uma introdução de uma frase neste artigo, sobre a ética do uso de tais ferramentas no jornalismo. Isto significa que devo atribuir ao chatbot uma assinatura conjunta? Ou que, se calhar, não devo usar uma frase gerada pelo bot na minha escrita?”, pergunta a autora.

“O professor Charlie Beckett, director do projecto Journalism AI na LSE, que produziu um importante relatório sobre este tópico, em 2019, disse ao Press Gazette que confiança, precisão, responsabilidade e orientações continuam a ser os principais problemas à volta da IA”, explica Charlotte Tobitt.

De certa forma, diz ele, “as organizações de media “não precisam de alterar nada… sejam quais forem os seus valores anteriores, mantenha-os. Se os não tiver, boa sorte, mas se os tiver, obviamente é apenas uma questão de pensar, na prática, como se aplicam neste caso”.

“Várias organizações noticiosas, já publicaram directrizes sobre o uso de ferramentas de IA para a produção de conteúdos, enquanto outras estão a decidir quais são as regras que precisam de definir”, relata a autora.

Na opinião do professor Beckett, não se deve enganar o leitor. Nessa perspectiva, Tobitt não deverá dizer que o texto foi escrito por si, mas sim por um algoritmo. “Se vai contar algo às pessoas, seja honesto. Não diga que foi escrito com a ajuda de IA, diga apenas que esta é uma notícia automatizada, a qual verificámos, certifique-se de que os padrões standard estão presentes, mas isto é automatizado”, refere.

Sobre o tema, Charlotte Tobitt refere vários exemplos de meios de comunicação que já têm algumas directrizes sobre a geração de notícias através de IA, quanto ao uso ou não desta nova ferramenta e quanto ao facto de informar, ou não, os leitores sobre a origem dos seus textos.

É o caso da Wired, que decidiu não publicar histórias com texto gerado ou editado por IA, seja para criar uma narrativa completa ou apenas partes, “excepto quando o facto de ser gerado por IA é o ponto principal da história”.

Um caso diferente é o da Heidi News, uma marca de media online suíça, de língua francesa, com foco em ciência e saúde, que publicou, recentemente, a sua própria “carta ética” sobre IA. “A equipa editorial pode usar IA para facilitar ou melhorar o seu trabalho, mas a inteligência humana permanece no centro de toda a nossa produção editorial. Nenhum conteúdo será publicado sem supervisão humana prévia”, e por isso, “todos os artigos continuarão a ser «assinados» por, pelo menos, um jornalista”, diz a empresa.

Já a CNET, revista de tecnologia, rival da Wired não acha importante que os leitores saibam se as notícias foram escritas por IA ou não.

A BBC, por seu lado, refere a autora, está a recrutar responsáveis de dados e de IA, cujo trabalho é construir “uma cultura em que todos tenham o poder de usar dados e IA com responsabilidade.”

Segundo Charlotte Tobitt, o professor Beckett “parece muito interessado em mencionar «padrões éticos de jornalismo» nas discussões sobre o assunto, utilizando estes termos nas suas várias respostas às minhas perguntas”, fazendo alertas sobre o facto de que usar a IA sem avisar os leitores seria “enganador”.

Tobitt, no entanto, tem as suas dúvidas sobre este assunto, em relação à ética da utilização da nova ferramenta, afirmando que “é importante considerar as limitações do uso de conteúdos gerado por IA, pois nem sempre reflectem com precisão as nuances e complexidades da experiência humana, ou o contexto específico de um determinado evento de notícias”, mas também “é importante garantir que qualquer conteúdo gerado por IA usado numa notícia seja factualmente preciso, livre de preconceitos e esteja em conformidade com os padrões éticos do jornalismo.”

“Os jornalistas podem, no entanto, experimentar o uso de IA para sugerir manchetes, textos para publicações nas redes sociais, ideias para histórias ou ajudar em pesquisa, mas isso será reconhecido quando apropriado e nunca levará a um produto final sem intervenção humana”, considera a autora, que não acha necessário ter de informar os leitores sobre se o texto teve ou não a ajuda da inteligência artificial.