Num artigo publicado no Columbia Journalism Review, Mathew Ingram discute o recente drama na OpenAI, uma das principais empresas de inteligência artificial do mundo. 

O director executivo, Sam Altman, foi afastado pela administração da empresa, alegadamente devido À à falta de "franqueza" e rumores sobre um novo desenvolvimento na pesquisa de IA chamado Q* (Q Star). Esse avanço sugeria que o motor de IA da OpenAI era capaz de realizar raciocínio lógico, um passo importante em direcção à "inteligência geral artificial" (AGI). No entanto, algumas fontes questionaram a magnitude desse avanço.

Dias depois de ter sido despedido, Altman foi reintegrado e os três membros do conselho de administração que o tinham destituído – bem como um director executivo interino que o tinha substituído em menos de setenta e duas horas – foram afastados.

Especula-se que as razões para o afastamento de Altman também podem estar relacionadas a lutas internas na direcção da OpenAI. Helen Toner, ex-membro da direcção e defensora do "altruísmo efectivo", teria entrado em conflito com Altman devido a diferenças na abordagem da pesquisa em IA. Altman procurava angariar financiamento externo para acelerar a pesquisa, enquanto Toner preferia uma abordagem mais lenta, preocupada com os riscos associados ao rápido desenvolvimento de uma inteligência artificial avançada para a humanidade.

“Toner é visto como uma figura de destaque no movimento do "altruísmo efetivo", que ganhou força em Silicon Valley nos últimos anos. Alguns dos proponentes da ideia acreditam que o altruísmo - no sentido de fazer o maior bem - exige que primeiro ganhem o máximo de dinheiro possível, para que o possam doar a boas causas e utilizá-lo para financiar a ciência que ajuda a humanidade, incluindo desenvolvimentos na inteligência artificial”, escreve Ingram.

“Depois de Toner ter escrito um artigo académico sobre os potenciais riscos da investigação em IA, Altman terá confrontado [Toner] com o mesmo, argumentando que o artigo era demasiado crítico em relação ao trabalho da OpenAI e demasiado elogioso em relação à Anthropic, uma empresa concorrente fundada por antigos colaboradores da OpenAI. Altman terá alegadamente tentado expulsar Toner da direcção. Toner e Ilya Sutskever, um cofundador da empresa e o cientista-chefe, teriam então usado essa tentativa de golpe como prova de que Altman não tinha em mente os melhores interesses da OpenAI”, explica.

A estrutura complexa da OpenAI reflecte as tensões entre objectivos comerciais e éticos. O artigo menciona a pressão financeira para obter financiamento substancial, inclusive através de parcerias e investimentos, para lidar com as exigências computacionais da pesquisa em IA.

“A OpenAI tem um braço com fins lucrativos, do qual Altman era (e é agora novamente) responsável e que tem como objetivo angariar fundos para financiar a investigação da empresa. (A Microsoft detém acções nesta parte da empresa.) Mas este braço com fins lucrativos é, em última análise, controlado por uma entidade-mãe sem fins lucrativos, cuja responsabilidade é gerir a investigação em IA no melhor interesse da sociedade.”

De acordo com a carta aberta dos colaboradores que pediram a reintegração de Altman, o conselho de administração da OpenAI sugeriu à equipa de liderança que permitir a destruição da empresa seria "consistente com a [sua] missão", uma vez que, teoricamente, isso impediria qualquer pessoa associada à empresa de desenvolver uma IA perigosa.

Para o autor, a tensão relatada entre Toner e Altman pode ser política pessoal, mas é também um “microcosmo de uma tensão mais ampla no mundo da investigação em IA quanto aos objectivos do campo e às melhores - ou menos perigosas - formas de lá chegar”. Ingram defende que existem, em termos gerais, duas escolas de pensamento no que diz respeito aos potenciais perigos da investigação em IA.

A agravar este problema está o facto de a investigação em IA exigir quantidades extremamente elevadas de capacidade de computação, o que, por sua vez, exige quantidades extremamente elevadas de dinheiro. Para o autor, esta é a principal força motriz por detrás das tentativas de Altman para obter maiores fontes de financiamento, tanto através de parcerias e investimentos de empresas como a Microsoft, como através de uma oferta pública inicial planeada para a OpenAI. 

Ingram defende ainda que, de certa forma, esta necessidade de financiamento também ditou a estranha estrutura empresarial da OpenAI. A empresa foi originalmente fundada como uma organização sem fins lucrativos com o objectivo de abrir a investigação em IA. Mas quando se tornou óbvio o dinheiro que seria necessário para desenvolver uma grande infraestrutura de computação, Altman e outros decidiram que era necessário ter um braço com fins lucrativos que pudesse fazer acordos de financiamento em grande escala.

O lançamento do motor ChatGPT no ano anterior exacerbou as divisões dentro da empresa, com a necessidade de dar resposta à procura imediatas de clientes corporativos. Altman, antes de ser destituído, estava à procura de financiamento para criar uma empresa de chips para dar resposta à crescente procura por capacidade de computação.

Após a reintegração de Altman, o artigo destaca que ele e Greg Brockman não têm lugar no conselho, reduzindo o seu poder sobre o futuro da empresa. O novo conselho concordou em conduzir uma investigação sobre os detalhes da demissão de Altman.

O autor conclui que, independentemente do desfecho, os defensores da aceleração da pesquisa em IA parecem ter prevalecido, já que figuras que defendiam uma abordagem mais lenta e cautelosa desapareceram. O episódio destacou as tensões sobre os objectivos da pesquisa em IA e as formas seguras de alcançá-los, indicando que o debate sobre o futuro da IA pode ser moldado mais por eventos internos nas empresas do que por fóruns governamentais.

“Como Benedict Evans, analista tecnológico, escreveu recentemente no seu boletim informativo e no Financial Times, todo o drama em torno da saída de Altman ‘veio da tentativa de abrandar a IA e, em vez disso, vai acelerá-la’. No final, escreveu Evans, quando se trata de determinar o futuro da investigação sobre IA, um ‘golpe de estado de três pessoas pode ter mais consequências do que todos os fóruns governamentais sobre IA dos últimos seis meses juntos’”.