Sam Altman, CEO da OpenAI, chamou à atenção para a necessidade da sociedade se proteger contra as consequências negativas da tecnologia e alertou para perigos reais à medida que remodela a sociedade.

Altman, afirmou que os reguladores e a sociedade precisam estar envolvidos com a tecnologia para se proteger contra consequências potencialmente negativas para a humanidade. “Temos que ter cuidado”, afirmou à ABC News, acrescentando: “Acho que as pessoas deveriam ficar felizes por estarmos um pouco assustados com isso”, revelou o Guardian.

“Estou particularmente preocupado que esses modelos possam ser usados ​​para desinformação em larga escala”, declarou Altman. “Agora que eles estão melhorando na escrita de códigos de computador, podem ser usados ​​para ataques cibernéticos letais”.

Mas, apesar dos perigos, também pode ser “a maior tecnologia que a humanidade já desenvolveu” acrescentou.

O aviso veio quando a OpenAI lançou a versão mais recente do modelo de linguagem GPT-4, menos de quatro meses depois da versão original se tornar na aplicação com o crescimento mais rápido da história.

O engenheiro de inteligência artificial disse que, embora a nova versão “não seja perfeita”, obteve a classificação de 90% nos exames à Ordem dos Advogados e uma pontuação quase perfeita no teste de matemática do ensino médio nos EUA. Também “pode escrever código de computador na maioria das linguagens de programação”, acrescentou.

Os receios geralmente concentram-se na substituição de humanos por máquinas. Mas Altman referiu que a IA só funciona sob a direcção e informação dada por humanos.

“Haverá outras pessoas que não colocarão alguns dos limites de segurança que impomos”, declarou. “Acho que a sociedade tem um tempo limitado para descobrir como reagir, como regular e como lidar com isso”, acrescentou.