“Quando a OpenAI, uma startup de inteligência artificial, lançou a sua ferramenta ChatGPT, este parecia ser pouco mais do que um brinquedo”, começa por referir Mathew Ingram, chefe de redacção digital do Columbia Journalism Review, na sua reflexão, recentemente publicada no mesmo site.

No entanto, diz o jornalista que, o ChatGPT tem vindo a provocar um debate, não só sobre “até que ponto devemos confiar neste tipo de tecnologia”, mas também sobre o “quão perto estamos do que os especialistas chamam de “Inteligência Artificial Geral”, ou IAG, que, pode vir a “transformar a sociedade em algo que ainda não entendemos”, afirma. Sobre este tema, “Bill Gates, o milionário cofundador da Microsoft, escreveu recentemente, que a inteligência artificial é «tão revolucionária como os telemóveis e a internet»”, refere.

Mathew Ingram conta que os especialistas dizem que a maior falha no ChatGPT é que, embora os mecanismos possam gerar textos convincentes, eles não compreendem, de facto, aquilo sobre o que estão a escrever, “e muitas vezes inserem dados que são conhecidos como alucinações”, afirma. Esta situação não acontece apenas com o textos, mas também com imagens: “em conjunto com o ChatGPT e outros programas, surgiu uma série semelhante de geradores de imagem de IA, como Stable Diffusion e Midjourney, que são capazes de produzir imagens verossímeis, como é o caso das “fotos” recentes de Donald Trump a ser preso – que foram, na verdade, criadas por Eliot Higgins, o fundador da equipa de repórteres de investigação Bellingcat”, refere.

Recentemente, diz Ingram, “a Future of Life Institute - uma organização sem fins lucrativos que diz que a sua missão é «reduzir o risco catastrófico e existencial global de tecnologias poderosas» - publicou uma carta aberta a pedir uma moratória de seis meses ou mais, para o desenvolvimento adicional da IA. A carta sugeria que em breve poderíamos ver o desenvolvimento de sistemas de IA, poderosos o suficiente para colocar em risco a sociedade de várias maneiras e afirmava que este tipo de sistemas deveria ser desenvolvido «apenas quando estivermos confiantes de que os seus efeitos serão positivos e os seus riscos sejam controláveis»”. Por conseguinte, “mais de vinte mil pessoas assinaram a carta, incluindo vários investigadores de IA e Elon Musk”, que foi um dos primeiros financiadores da OpenAI.

Segundo o autor, Emily Bender, professora de linguística na Universidade de Washington e coautora de um trabalho de pesquisa sobre IA, citado na referida carta aberta, disse no Twitter, que a carta deturpou a sua pesquisa e um artigo que teria escrito, onde diz que estes modelos de linguagem, como o que alimenta o ChatGPT, podem ser mal utilizados por sistemas opressivos existentes e governos. Depois da publicação deste artigo, dois dos coautores de Bender foram demitidos da equipa de IA da Google. “Há quem acredite que a Google tomou essa decisão porque a IA é um foco importante para o futuro da empresa”, refere o jornalista.

Para se entender melhor a questão, Mathew Ingram relata vários exemplos sobre os quais os chatbots de IA já foram responsabilizados, o mais grave, talvez, o de um suicídio. O facto, foi noticiado pelo La Libre, um jornal belga, que conta que o software parece ter encorajado o utilizador a matar-se, segundo relatos da sua mulher.

Outras situações surgiram, como o autor do artigo refere, como o caso de um escândalo de assédio sexual gerado por esta ferramenta, que criou uma lista de acusações de assédio sexual sobre Jonathan Turley, um professor de direito da Universidade George Washington, onde o software chegou a citar um artigo do Washington Post, de 2018, o qual não existe. Na mesma linha, o ChatGPT afirmou, recentemente, que um político na Austrália teria cumprido pena de prisão por suborno, o que também se revelou falso.

Outros casos se seguem, no texto de Ingram, como o da Replika, um software também baseado numa versão de código aberto do ChatGPT, que foi recentemente criticado por enviar mensagens sexuais aos seus utilizadores, mesmo depois destes dizerem não estar interessados. A Ars Technica, por exemplo, apontou recentemente que o ChatGPT, inventou livros que não existem, trabalhos académicos que os professores não escreveram, citações legais falsas e uma série de outros conteúdos fictícios.

Mathew Ingram, refere o que tem sido falado acerca deste tema. “Kate Crawford, professora da University of Southern California, disse ao Post que, como os programas de IA «respondem com tanta confiança, é muito sedutor supor que podem fazer tudo e é muito difícil ver a diferença entre factos e falsidades»”, exemplifica.

Um outro exemplo, refere o jornalista, é o de Joan Donovan, directora de investigação do Harvard Kennedy School's Shorenstein Center, que experimentou uma versão inicial do ChatGPT, e descobriu que, “além de fontes como Reddit e Wikipedia, o software também incorporava dados do 4chan, um fórum online carregado de teorias da conspiração e conteúdo ofensivo”.

Sobre tudo o que está a acontecer nesta área, Emily Bell, directora do Tow Center for Digital Journalism de Columbia, por seu lado, escreveu recentemente no The Guardian, que estes mecanismos baseados em IA podem criar um novo “frenesim de notícias falsas”.

Relativamente à carta aberta da Future of Life Institute, a investigadora da empresa de IA, Hugging Face, Sasha Luccioni, argumentou, num ensaio para a Wired, que uma pausa na pesquisa de IA é impossível, “porque já está a acontecer em todo o mundo”, o que significa que “não há um botão mágico… que pare o que é «perigoso», e que permita apenas a pesquisa daquilo que é «seguro»”, relata Ingram.

Neste momento, o que é facto, refere o jornalista, é que muito se tem falado sobre o assunto por parte de reguladores nos Estados Unidos e em todo o mundo. Recentemente, o Wall Street Journal informou que o governo de Biden começou a examinar se deve ser aplicada regulamentação a ferramentas como o ChatGPT, devido às preocupações sobre a possibilidade desta tecnologia ser usada para discriminar ou espalhar informações prejudiciais.

As autoridades em Itália, por exemplo, já baniram o ChatGPT por supostas violações de privacidade, afirmando que o chatbot poderia voltar se atendesse a certos requisitos. Entretanto, o software enfrenta uma possível regulamentação em vários outros países europeus.

Mas, não só os governos que estão a trabalhar para entender esta nova tecnologia e os seus riscos. O mesmo acontece com as empresas de media, menciona Ingram. No caso da Wired, as suas directrizes são que “a revista não publicará artigos escritos ou editados por ferramentas de IA, «excepto quando o facto a ser gerado por IA, for o ponto principal da história»”, cita o jornalista.

Por outro lado, outras organizações de media parecem mais preocupadas com o facto dos chatbots poderem estar a roubar-lhes informação. O Journal, refere Ingram, informou recentemente que os editores estão “a examinar até que ponto o seu conteúdo tem estado a ser utilizado para treinar ferramentas de IA, como o ChatGPT, como devem ser compensados por isso e quais são as suas possibilidades legais”.

Neste seu texto, Mathew Ingram, deixa a questão: “será que estamos realmente em perigo sobre este tipo de inteligência artificial por detrás de serviços como o ChatGPT, ou estaremos apenas a convencer-nos disso?”, e graceja: “eu perguntaria ao ChatGPT, mas não estou convencido de que iria obter uma resposta correcta”.