O potencial e os perigos da inteligência artificial generativa nas redacções
O impacto das ferramentas de inteligência artificial generativa (IAG) que têm estado a ser usadas nas redacções em Espanha é objecto de uma análise de Pilar Bernat num artigo publicado nos Cuadernos de Periodistas, da APM, com a qual o Clube Português de Imprensa tem um acordo de parceria.
O artigo identifica, primeiro, quatro problemas dos sistemas de automatização para a imprensa, e depois apresenta exemplos práticos de ferramentas que já são usadas actualmente nas redacções.
Para começar, Pilar Bernat recorre à IAG para dar uma definição da própria tecnologia. Assim, num texto gerado pelo ChatGPT, a definição de IAG é: “um ramo da inteligência artificial que se foca na geração de conteúdo original a partir de dados existentes. Esta tecnologia utiliza algoritmos e redes neuronais avançadas para aprender textos e imagens, e a seguir gerar conteúdo novo e único. Além disso, perante um pedido, pode devolver conteúdos ou ideias em forma de conversas, informações, explicações, histórias, imagens, vídeos e música”.
A autora passa, então, à explicação daqueles que considera os quatro principais desafios dos sistemas de geração automática de conteúdo.
Problema 1: Falta de profundidade em temas especializados e de exactidão ou veracidade da informação
Para Pilar Bernat, este é “o problema mais relevante”, porque ninguém pode garantir que o conteúdo gerado pela AIG é baseado em informações verdadeiras ou confirmadas.
A verificação de factos é intrinsecamente necessária ao trabalho dos jornalistas, quer para situações simples do dia-a-dia, quer para casos de aprofundamento de temas, em que a confirmação da informação se torna ainda mais complexa. Muitas vezes, esta é uma tarefa que implica compreender os contextos, fazer julgamentos sobre a informação disponível, conciliar dados de múltiplas fontes, como explica o estudo “Compreender a promessa e os limites da verificação automatizada”, deLucas Grave para o Reuters Institute, citado pela autora.
Ora, “apesar de alguns avanços, nenhum sistema AFC [Automated Fact-Checking] (tecnologias automatizadas de verificação de dados) realiza isto de maneira confiável na actualidade”, diz a autora, acrescentando que até “as declarações aparentemente simples que podem ser refutadas por qualquer pessoa apresentam um desafio espinhoso para a verificação automatizada”.
Ainda a propósito da complexidade e profundidade do trabalho dos jornalistas, Pilar Bernat faz um apanhado de algumas das primeiras experiências de jornais com notícias geradas por IA (casos como o do Los Angeles Times, do New York Times, da Associated Press, entre outros), para concluir que, embora a IAG tenha permitido publicar notícias breves “de uma maneira mais rápida e eficiente”, estas nunca foram tão bem “construídas ou documentadas quanto as [notícias] relevantes realizadas por jornalistas experientes e especializados, capazes de relacionar, deduzir e discernir”.
Problema 2: Impossibilidade de substituir a experiência humana
A autora refere-se, neste ponto, à impossibilidade de os sistemas automáticos usarem informação que não esteja armazenada em nenhuma base de dados.
A experiência pessoal, as relações sociais, as fontes directas e o conhecimento aplicado são exemplos de informação que não está à disposição de nenhum programa, não sendo possível a IAG gerar “informação correspondente” a estes dados. A IAG pode ser útil, num segundo momento, se lhe pedirmos ajuda para “encontrar os antecedentes ou a potencial consequência” dos factos que temos em nossa posse.
Aí, o sistema irá gerar informação com base na imensa base de dados que tem disponível e que é alimentada por toda a informação presente nas fontes que tenham sido definidas para aquele programa.
“E aqui é onde nos encontramos com o terceiro problema”, diz a autora.
Problema 3: Autenticidade dos dados de origem
Não há nenhuma “garantia de que os dados ou bases de dados — geralmente enormes — que a IAG usou sejam autênticos”, explica Pilar Bernat.
O próprio chatGPT concorda, numa resposta a uma pergunta feita pela autora: “Não, nem todo o que diz o ChatGPT é necessariamente verdade. O ChatGPT é uma inteligência artificial que proporciona respostas baseadas no conhecimento e informação disponível no conjunto de dados que usa para o seu treino”. E continua: “Além disso, o ChatGPT não tem a capacidade de verificar a veracidade da informação em tempo real”.
Não é, por isso, irrelevante se os jornalistas trabalham com sistemas abertos, em que as bases de dados são usadas e alimentadas por toda a gente, ou em ambientes fechados, “em que o sistema de IAG se associa a bases de dados concretos de uma empresa, universidade, biblioteca, hospital…”. Neste caso, as fontes a que a IAG pode recorrer só incluirão, em princípio, informação fiável.
No entanto, além das fontes, o sucesso dos resultados devolvidos pelo sistema também depende das perguntas que lhe são feitas, os chamados “prompts” — comandos para que o sistema responda ao que queremos. Para Laura Martín Pérez, especialista em linguística computacional, citada por Pilar Bernat, estes comandos “são o factor diferencial básico entre um uso profissional ou um uso geral de qualquer sistema generativo”.
Problema 4: Segurança
Neste ponto, a Pilar Bernat sublinha a importância de trabalhar em ambientes fechados para garantir que a informação importada para a base de dados a partir da qual se vai depois trabalhar “se mantenha em nuvens de confiança e não viaje livremente pela rede”, citando ainda Laura Martín Pérez.
As ferramentas já usadas nas redacções
Segundo a autora do artigo, “em termos gerais, o que se está a fazer nos meios de comunicação social é utilizar as plataformas públicas e abertas para gerar texto”.
Ao mesmo tempo, já há empresas em Espanha que adaptaram os seus sistemas de gestão de conteúdos (conhecidos por CMS), tais como o Editmaker e o WordPress, à edição de imprensa escrita com recurso à AIG. O grupo Cibeles é um desses exemplos — o plugin AI Cibeles custa, segunda Pilar Bernat, 75 euros por um milhão de palavras ou subscrição mensal).
No caso do Editmaker, algumas das ferramentas de automatização disponíveis para texto são:
- reescrita (chamada “refrito” é a ferramenta mais usada, segundo Pilar Bernat; gera novos textos a partir de outros já existentes, como press releases);
- geração de texto a partir de um tema que é lançado (é possível “definir o número de palavras, o estilo de escrita, a estrutura do artigo, etc.”);
- criação de cabeçalhos ou resumos (o pedido a fazer deve ser muito exacto, e pode exigir bastante edição para textos noticiosos tradicionais);
- elaboração de lista de pontos a destacar num texto;
- geração de tags;
- sugestão de títulos;
- correção e melhoria de trabalhos já feitos que inserimos no sistema;
- tradução.
Quanto a ilustração, esta ferramenta também geral imagens a partir de temas identificados. No entanto, na experiência de Pilar Bernat, é preferível a utilização de outros programas, como Midjourney ou Stable Difussion, se os jornalistas quiserem imagens mais elaboradas.
Finalmente, a autora admite a questão habitual: muitos profissionais têm ainda muitas dúvidas sobre os perigos da utilização deste tipo de tecnologia, designadamente sobre a substituição dos jornalistas por sistemas de IAG. Mas a autora recorre a um estudo de Stanford, cujos resultados foram partilhados num artigo da revista Medium (“Dez coisas sobre a IA que todas as redacções deviam saber”), para lembrar que a implementação destes sistemas nas redacções tem mostrado que a IA liberta “até 20% do tempo dos jornalistas”, que pode depois ser utilizado para tarefas mais diferenciadas.
(Créditos da imagem: pch.vector no freepik)