Em 2023, Sam Altman foi demitido da OpenAI. Agora sabe-se por quê

O mundo precisa ter certeza de que a empresa liderada por ele realmente leva a sério a segurança da IA

Crédito: Jason Redmond/AFP via Getty Images

Mark Sullivan 2 minutos de leitura

Na semana passada, Scarlett Johansson acusou Sam Altman, CEO da OpenAI, de  ter roubado sua voz.  A atriz alegou que a voz da personagem Sky, do ChatGPT, é uma cópia indevida da sua. Essa acusação colocou seriamente em xeque a honestidade de Altman.

Um especialista em gerenciamento de crises com quem conversei acha que a resposta da OpenAI à carta de Johansson – incluindo  uma matéria no jornal Washington Post que tentava inocentar a empresa – pareceu muito “artificial”. 

O debate sobre a idoneidade de Altman continuou rolando durante toda a semana passada, principalmente por causa das novas informações que vieram à tona sobre os motivos da demissão (um tanto misteriosa e um tanto polêmica) do líder da OpenAI pela diretoria da empresa, em novembro passado.

Na ocasião, a diretoria havia dito apenas que Altman tinha sido desonesto com eles. Mas agora, um dos membros do conselho que demitiu o executivo, a pesquisadora Helen Toner, deu, pela primeira vez, alguns exemplos práticos de como Altman não foi honesto com o conselho. Em um episódio do programa Ted AI Show, ela contou que:

  • Altman não informou o conselho antes de a OpenAI lançar o ChatGPT para o público, em novembro de 2022. Os membros da diretoria ficaram sabendo do lançamento pelo Twitter (atual X).
  • Ele também não informou ao conselho que era proprietário do OpenAI Startup Fund “apesar de sempre repetir que era um membro independente do conselho, sem nenhum interesse financeiro na empresa”, revelou Toner. Esse fundo de startups financiava a criação de novas empresas com base nos modelos da OpenAI.
  • Em um esforço para remover Helen Toner do conselho, segundo ela, Altman mentiu para os membros sobre um  trabalho de pesquisa escrito por ela. Ele teria se irritado com uma comparação feita entre as abordagens de segurança da OpenAI e da empresa rival do setor de IA, a Anthropic.
  • Em várias ocasiões, segundo Toner, Altman despistou a diretoria sobre o número de “processos formais de segurança cibernética” que a OpenAI tinha em vigor. “Era impossível saber se esses processos de segurança estavam funcionando bem ou o que precisaria ser mudado”, disse Toner.
Créditos: Carolin Thiergart/ Mojahid Mottakin/ Unsplash

“O desfecho foi que nós quatro, responsáveis pela demissão de Sam, chegamos à conclusão de que simplesmente não dava para acreditar em nada do que ele estava nos dizendo”, explicou Toner.

“Essa é uma situação totalmente inviável para um conselho de administração, principalmente um conselho que deveria estar exercendo uma supervisão independente sobre a empresa, e não apenas ajudando o CEO a arrecadar mais dinheiro.” 

Todos esses problemas estão relacionados à  segurança e a uma questão fundamental: saber se a OpenAI será capaz de fazer o necessário para garantir que seus modelos e ferramentas, cada vez mais poderosos, não sejam usados para causar mais estragos.

Como os modelos de base da OpenAI estão sendo incorporados às operações comerciais de muitas empresas, qualquer falha pode ter efeitos de grande alcance.


SOBRE O AUTOR

Mark Sullivan é redator sênior da Fast Company e escreve sobre tecnologia emergente, política, inteligência artificial, grandes empres... saiba mais