A maioria dos leitores deseja que os editores rotulem os artigos gerados por IA, mas há uma diminuição na confiança nos meios de comunicação quando essa divulgação ocorre, de acordo com uma pesquisa recente. 

Num artigo publicado no NiemanLab, a autora Sarah Scire, escreve que este é “o enigma no centro da nova pesquisa de Benjamin Toff, da Universidade de Minnesota, e Felix M. Simon, do Oxford Internet Institute.” 

Estes investigadores conduziram uma das primeiras pesquisas sobre as percepções do público em relação às notícias geradas por IA, que revelou que mais de 75% dos adultos nos EUA consideram negativamente os artigos noticiosos produzidos por IA. No entanto, o uso generalizado dessas tecnologias já é uma realidade, desde a Sports Illustrated até à Gannett.

“Pedir informações ao Google e receber de volta conteúdos gerados por IA não é o futuro, é a nossa realidade actual”, escreve a Scire.

Grande parte da investigação existente sobre as percepções da IA na produção de notícias tem-se centrado na recomendação algorítmica de notícias, ou seja, em questões sobre a forma como os leitores se sentem em relação aos “bots” que escolhem o que veem e leem. 

Alguns estudos sugeriram que os consumidores de notícias podem achar as notícias geradas por IA como mais justas e neutras devido à "heurística da máquina", o que faz com que as pessoas considerem que a tecnologia opera sem “coisas incómodas” como emoções humanas ou segundas intenções.

A pesquisa de Toff e Simon, realizada em setembro de 2023, envolveu participantes que leram artigos noticiosos de natureza política, alguns claramente identificados como gerados por IA. Surpreendentemente, os leitores não avaliaram o conteúdo rotulado como tendo sido criado por IA como menos preciso ou mais tendencioso, mas houve uma diferença significativa na confiança atribuída às organizações noticiosas que publicam histórias rotuladas como tendo sido geradas por IA.

A confiança diminuiu numa escala de 11 pontos quando comparada à confiança atribuída a artigos sem este rótulo. Além disso, o estudo também revela que aqueles que, por norma, já desconfiam dos meios de comunicação social tradicionais continuam a desconfiar quando a IA está envolvida.

Toff sugere, por isso, que rótulos específicos podem ser explorados para criar confiança em determinados segmentos do público. Segundo o investigador, apresentar uma lista de fontes utilizadas pela IA ao gerar o artigo neutralizou os efeitos negativos na confiança, indicando que a transparência pode ser crucial.

Curiosamente, os inquiridos não avaliaram o conteúdo da notícia rotulada como gerada por IA como menos exacta ou mais tendenciosa.

Os investigadores descobriram que a maior diferença de confiança é entre aqueles que estavam familiarizados com "o que implica a produção legítima de notícias e reportagens".

Pessoas com níveis mais baixos de "conhecimento processual de notícias", como dizem os pesquisadores, geralmente não atribuíram pontos de confiança às organizações de notícias por rotularem o conteúdo como gerado por IA.

Para a autora do artigo do NiemanLab, “há alguma esperança de que a IA generativa possa aumentar a confiança entre aqueles com menor confiança nos media”.

“Dada a confiança historicamente baixa nos meios de comunicação social entre os republicanos nos EUA, talvez algumas audiências vejam a IA generativa como uma melhoria em relação aos jornalistas profissionais? Uma experiência anterior revelou que a apresentação de notícias com origem na IA reduziu a percepção de parcialidade entre as pessoas com maior confiança nos media”, escreve.

A autora relata ainda o caso de um editor de um site alemão de notícias digitais que experimentou usar conteúdos assistidos por IA e que refere que um inquérito ao público sugeria que alguns leitores pareciam favorecer "a precisão mecânica da tecnologia" em vez da "pessoa propensa a erros ou ideologicamente moldada".

Confirmando estudos anteriores, Toff e Simon descreveram que uma esmagadora maioria acreditava que as organizações de notícias deveriam "alertar os leitores ou espectadores de que a IA foi usada" – mais de 80% em todos os entrevistados. Entre aqueles que disseram que queriam ver uma divulgação, 78% disseram que as organizações de notícias "deveriam fornecer uma nota explicativa descrevendo como a IA foi usada".

Os investigadores também aceitaram respostas abertas dos participantes no estudo, que resultaram em sugestões práticas para rotular o conteúdo gerado pela IA ("um símbolo universalmente aceite" ou "rótulos de toda a indústria" semelhantes à "forma normalizada como a informação nutricional é apresentada nos produtos alimentares") e algumas declarações de desaprovação geral ("ou podiam simplesmente não fazer isto", escreveu um deles).

"Embora as pessoas digam frequentemente que querem transparência e divulgação de todo o tipo de práticas e políticas editoriais, a probabilidade de as pessoas clicarem, lerem e se envolverem em explicações pormenorizadas sobre a utilização destas ferramentas e tecnologias é provavelmente muito baixa", afirmou Toff.

"As pessoas querem que as empresas revelem o que está na sua comida, mesmo que 99% das vezes não leiam a lista de ingredientes", observou.

Apesar dos resultados, Toff e Simon enfatizam a importância de estabelecer regras sobre o uso responsável e a divulgação da IA no jornalismo. Consideram essencial que as organizações de notícias determinem quando é apropriado divulgar o uso de IA, especialmente em situações em que o conteúdo é amplamente gerado por essa tecnologia. As descobertas iniciais destacam a necessidade de desenvolver um vocabulário eficaz tanto para as redacções quanto para o público, pois a utilização de tecnologias de IA nas notícias adiciona uma complexidade única ao cenário da informação contemporâneo.