O impacto da inteligência artificial generativa no trabalho dos jornalistas segundo o Reuters Institute
Ao longo de 2023, o Reuters Institute, organização dedicada ao estudo do jornalismo, dinamizou três grandes mesas redondas sobre o impacto da inteligência artificial (IA), e particularmente da IA generativa, na criação de notícias. As principais conclusões dessas conversas foram resumidas num artigo publicado no site do instituto.
O objectivo destas mesas redondas era perceber o que estão a pensar e a fazer os responsáveis do sector numa altura de tantas incertezas, em que estas novas tecnologias “não podem ser ignoradas”, mas em que ainda não existe um guia sobre como “aproveitar as oportunidades e mitigar os riscos”, explica o artigo.
Participaram nas conversas elementos das grandes plataformas tecnológicas e de organizações noticiosas de todo o mundo, assim como especialistas em detecção de desinformação.
As discussões foram especialmente pertinentes num ano de muitas e rápidas mudanças, em que as organizações criaram “novas regras internas” para lidar com o lançamento de produtos de IA; a tensão entre as plataformas tecnológicas e os grupos de comunicação social se adensaram; e os reguladores começaram a sugerir “novas posições” relativamente ao uso da IA no sector.
Para contextualizar os assuntos e o tom das discussões, o Reuters Institute apresenta, no seu artigo, uma tabela com os principais acontecimentos dos últimos meses, desde o lançamento do ChatGPT pela OpenAI em Novembro de 2022.
As principais conclusões são organizadas pelo Reuters Insitute em três grandes temas: experiências das redacções com as ferramentas de IA; desinformação alimentada pela IA; e relação das redacções com as plataformas, incluindo propriedade intelectual de notícias que estão a ser usadas para treinar os sistemas de IA.
Experiências das redacções com as ferramentas de IA
- Há um reconhecimento geral do grande benefício que a IA pode trazer na automatização de algumas tarefas, permitindo aos jornalistas terem mais tempo para se dedicar a tarefas criativas e a histórias originais.
- Um eventual manual de utilização das ferramentas de IA no contexto jornalístico precisa de ser elaborado pelos próprios profissionais do sector.
- Os participantes do chamado “Sul Global” parecem ser menos conservadores na exploração destas novas tecnologias.
- Nos países destas regiões, há abertura para utilizar a IA generativa em tarefas como a reformulação de textos, criação de resumos, geração de imagens e ilustrações com base nos textos das notícias. Duas preocupações centrais de carácter ético surgiram neste contexto: por um lado, o potencial aumento exponencial do poder das narrativas criadas pelo Ocidente, uma vez que se sabe que os resultados obtidos através da IA repetem, em grande medida, os enviesamentos históricos na forma de apresentar a realidade; por outro, a necessidade de deixar sempre muito claro para o público quando a informação (designadamente, as imagens) é criada artificialmente. Uma proposta de solução foi a criação de uma imagética com traços propositadamente ilustrativos para que as personagens geradas em IA não possam ser confundidas com jornalistas verdadeiros.
- O uso da tecnologia para criar textos que adoptam o estilo específico de um determinado jornalista ou para gerar imagens que replicam o aspecto real dos profissionais foi considerado uma “linha vermelha” que não pode ser ultrapassada.
- De forma genérica, no hemisfério norte, os responsáveis do sector “tendem a favorecer uma abordagem de ‘co-piloto’, que permite ganhos de eficiência na retaguarda, mas garante a confirmação por um humano dos conteúdos que chegam ao público”, descreve o artigo.
- À medida que o ano foi avançando, a vontade de experimentar as novas ferramentas de IA generativa foi aumentando de forma geral nos participantes.
Desinformação alimentada pela IA
- Muitos participantes estão preocupados com o facto de a veracidade de todos os conteúdos começar a ser questionada, incluído os conteúdos publicados por órgãos de comunicação legítimos.
- Os baixos custos da produção de conteúdos falsos e a sua elevada semelhança com os conteúdos verdadeiros é outra fonte de preocupação. Falou-se, por exemplo, da fácil multiplicação de sites “impostores” que se fazem passar por sites de notícias reais.
- Há um reconhecimento crescente de que os conteúdos áudio falsos são mais difíceis de detectar, o que implica uma preocupação acrescida para os países em que o áudio é um dos formatos mais importantes na divulgação das notícias, principalmente num ano (2024) de tantas eleições.
- Os responsáveis do sector mostraram grande interesse em conhecer metodologias e ferramentas de detecção de informação falsa. Além disso, também foi solicitada ajuda para saber como reagir quando surgem conteúdos falsos. Neste âmbito, foi proposta a criação de um protocolo de “selos” para certificar publicações genuínas.
- Há algum optimismo acerca do uso da IA para criar ferramentas que gerem maior coesão social e comunitária, tais como a detecção de “frases jornalísticas que têm maior probabilidade de exacerbar divisões e inflamar tensões”, lê-se no artigo.
Relação das redacções com as plataformas tecnológicas
- Tem sido crescente a preocupação dos órgãos de comunicação social com o uso, sem autorização, das notícias como matéria-prima para treinar os sistemas de IA, pelas questões de propriedade intelectual que levantam.
- É considerado um risco para o público e para os sites noticiosos se a pesquisa de informação passar a ser feita através de ferramentas como o chatGPT que acabam por “oferecer uma resposta única completa” a um determinado assunto, em vez de sugerir “um conjunto de links para sites de notícias” que fornecem informação complementar de apoio.
Finalmente, os órgãos de comunicação social são encorajados a colaborar na resolução dos desafiados gerados pela IA, designadamente através da partilha de aprendizagens e recursos.
(Créditos da imagem: freepik)