Sayash Kapoor, Hilke Schellmann e Ari Sen, um cientista na área da programação de dados, um repórter de investigação, e um jornalista de dados, respectivamente, publicaram um artigo no Columbia Journalism Review, com indicações sobre a forma como os jornalistas devem tratar as notícias que abranjem temas acerca da Inteligência Artificial (IA).

No artigo, os autores referem ter “experiência, em primeira mão, na investigação da Inteligência Artificial (IA)”, o que os levou a ver o “tremendo potencial que essas ferramentas podem ter, mas também os seus enormes riscos”.

Por outro lado, “à medida que a sua adopção cresce”, os jornalistas vão deparar-se, cada vez mais com informações sobre a IA. No entanto, estes profissionais devem ter alguns cuidados quando decidem publicar essas notícias.

Em primeiro lugar, os autores consideram que os jornalistas devem ser cépticos quanto ao trabalho de relações públicas que é feito pelas empresas responsáveis pela criação das ferramentas baseadas em IA.

As pessoas na indústria de tecnologia costumam afirmar que são as únicas que podem entender e explicar os modelos de IA e o seu impacto. Mas, os jornalistas devem ser cépticos em relação a essas afirmações, especialmente quando vêem de colaboradores ou porta-vozes da empresa.

“Os repórteres tendem a escolher”, para a sua peça, “apenas o que o autor ou o produtor do modelo disse”, afirma Abeba Birhane, investigadora de IA, da Mozilla Foundation. Ao fazer isso, os jornalistas acabam por se tornar “uma máquina de relações públicas para essas ferramentas”, alerta.

Emily Bender, linguista computacional da Universidade de Washington, sugere que os repórteres conversem com especialistas fora da indústria de tecnologia, em vez de fornecerem uma plataforma aos fornecedores de IA para promoverem a sua própria tecnologia.

Os autores referem o exemplo de textos publicados no Dallas Morning News, ou no Social Sentinel,  quando uma empresa alegou que o seu modelo de IA poderia detectar alunos em risco de se ferirem a si mesmos ou a outras pessoas, através das suas publicações nas redes sociais. No entanto, quando os repórteres conversaram com outros especialistas, perceberam que prever, de forma confiável, ideias suicidas a partir daí, não é algo viável.

Outro conselho que os autores dão aos jornalistas é o de que muitos editores poderão escolher imagens e títulos melhores nos seus textos, como terá aconselhado Margaret Mitchell, cientista e responsável de ética da empresa de IA, Hugging Face.

Os títulos imprecisos sobre IA, geralmente influenciam os legisladores e a regulamentação.

Para quem vê “títulos atrás de títulos, com afirmações exageradas ou mesmo incorrectas”, essa é a ideia que fica “do que é verdade”, diz Mitchell.

Uma outra indicação para quem vai escrever acerca de ferramentas de IA, é a de questionar os dados experimentais.

“A primeira etapa ao avaliar um modelo de IA é ver quanto e em que tipo de dados o modelo foi treinado. O modelo só pode funcionar bem no mundo real, se os dados do treino da ferramenta representarem a população na qual ele está a ser testado”, alertam os autores. “Os repórteres devem ficar atentos quando um modelo treinado para um objectivo é usado para um objectivo completamente diferente”, acrescentam.

Por exemplo, em 2017, investigadores da Amazon descartaram um modelo de aprendizagem de uma máquina usada para filtrar currículos, depois de terem descoberto que discriminava as mulheres”. A culpa terá sido o modelo utilizado no treino da ferramenta, que se baseava nos currículos dos últimos colaboradores contratados de uma empresa, que foram, predominantemente, homens.

A privacidade dos dados é outra preocupação. Em 2019, a IBM divulgou uma série de dados com as caras de um milhão de pessoas. No ano seguinte, a empresa foi processada por incluir, nessa divulgação, as fotos sem o consentimento dos próprios.

Nicholas Diakopoulos, professor de estudos de comunicação e ciências da programação na Northwestern, recomenda que os jornalistas perguntem às empresas de IA, quais são as suas práticas de recolha de dados e se essas pessoas deram o seu consentimento para tal.

Por outro lado, os profissionais que desenvolvem a IA, afirmam, frequentemente, que os seus modelos funcionam bem, não só numa única tarefa, mas em várias situações. “Uma das coisas que está a acontecer com a IA, agora, é que as empresas que a produzem estão a alegar, basicamente, que são máquinas para tudo”. Ora, segundo os autores, não é possível “testar esta afirmação”. Portanto, na ausência de qualquer validação sobre o mundo real, “os jornalistas não devem acreditar nas alegações da empresa”, afirmam.

Além disso, por mais importante que seja saber como estas ferramentas funcionam, o mais importante para os jornalistas é o de considerarem o impacto que a tecnologia está a causar nas pessoas. “As empresas gostam de se gabar dos efeitos positivos das suas ferramentas, portanto, os jornalistas devem lembrar-se de investigar quais os danos reais que a ferramenta pode causar”, indicam os autores.

As “questões éticas surgem, mesmo que uma ferramenta funcione bem. O reconhecimento facial pode ser usado para desbloquear os nossos telefones, mas já foi usado por empresas e governos para vigiar pessoas em grande escala. Tem sido usado para impedir que as pessoas entrem em locais de concertos, para identificar minorias étnicas e para monitorizar colaboradores e pessoas, muitas vezes sem o seu conhecimento”, referem.

Os autores citam Jonathan Stray, cientista do Berkeley Center for Human-Compatible AI e ex-editor da AP, que terá dito que “vale a pena conversar com os humanos que estão a usar ou que são afectados pelas ferramentas” de IA. “Encontre as pessoas que estão, realmente, a usar ou a tentar usá-las para fazer o seu trabalho e cobrir essa história, porque existem pessoas reais a tentar fazer coisas reais”, disse. “É aí que você vai descobrir qual é a realidade”, concluem os autores.