Documentos lançam luz sobre a demissão de Sam Altman da OpenAI em 2023

O futuro da IA depende de como o setor vai conseguir aplicar essa tecnologia com segurança e responsabilidade – e a confiança é peça-chave nessa equação

demissão de Sam Altman da OpenAI
Crédito: blackred/ Getty Images

Mark Sullivan 4 minutos de leitura

Poucas pessoas fizeram tanto para alimentar a crença na próxima revolução industrial – a da inteligência artificial – quanto Sam Altman, CEO da OpenAI. Essa confiança já movimentou centenas de bilhões de dólares em investimentos para construir a infraestrutura que sustenta essa transformação.

Alguns analistas afirmam que esse volume de capital tem sustentado o mercado de ações norte-americano – e, indiretamente, a economia dos Estados Unidos. O entusiasmo com a IA também levou Washington a abandonar, quase por completo, o papel de fiscalizador e agir mais como apoiador e promotor da indústria.

Mas as dúvidas sobre a confiabilidade de Altman continuam. Novos detalhes sobre sua polêmica demissão em 2023 – seguida de uma rápida recontratação e de uma reformulação do conselho – vieram à tona com a divulgação de parte do depoimento de Ilya Sutskever, cofundador e ex-diretor científico da OpenAI, em um processo movido por Elon Musk contra a empresa.

Na época, o conselho alegou que Altman havia escondido informações importantes sobre o andamento dos negócios. Também circulavam relatos de que ele sabotava a própria equipe, colocando executivos uns contra os outros.

Durante um depoimento de sete horas, Sutskever confirmou acreditar que Altman mentia com frequência. Ele relatou que o CEO criava atritos entre a então diretora de tecnologia, Mira Murati, e Daniela Amodei – que mais tarde deixaria a empresa junto com seu irmão Dario e outros colegas para fundar a Anthropic.

Os depoimentos indicam que esse comportamento não foi um episódio isolado, mas parte de um padrão. Segundo Sutskever, ele e Murati vinham registrando as condutas de Altman e planejando sua saída havia mais de um ano, esperando o momento em que os aliados do CEO no conselho estivessem enfraquecidos demais para impedi-la.

Mira Murati, ex-CEO da OpenAI
Mira Murati

Helen Toner, ex-integrante do conselho, contou que, cerca de um mês antes da demissão, Murati e Sutskever começaram a alertar o grupo sobre o comportamento de Altman.

“De repente, os dois começaram a nos dizer que não confiavam nele, que o ambiente estava ficando tóxico”, relatou Toner em entrevista ao podcast “TED AI”.

“Usaram o termo ‘abuso psicológico’, dizendo que ele não era a pessoa certa para conduzir a empresa rumo à inteligência artificial geral e que não acreditavam que ele fosse capaz – ou estivesse disposto – a mudar”, completou.

Sutskever chegou a escrever um memorando de 52 páginas detalhando as falhas de conduta de Altman, a pedido de Adam D’Angelo e, possivelmente, das conselheiras Helen Toner e Tasha McCauley.

A empresa nasceu como um laboratório de pesquisa sem fins lucrativos e com uma missão idealista.

Ele também elaborou outro documento sobre Greg Brockman, então presidente do conselho, que renunciou logo após a saída de Altman.

Toner citou ainda outros episódios de omissão. Segundo ela, Altman não comunicou ao conselho o lançamento do ChatGPT e tampouco revelou que era dono do fundo de investimento vinculado à OpenAI – mesmo se apresentando como um conselheiro independente, sem interesses financeiros diretos.

Ela afirmou também que Altman teria fornecido informações incorretas sobre os poucos processos formais de segurança em vigor, o que impediu o conselho de avaliar se essas práticas estavam sendo seguidas. Toner, que é especialista em segurança de IA, afirmou que o grupo não tinha como medir o nível real de risco da empresa.

IDEALISMO x LUCRO

É verdade que disputas internas acontecem em qualquer organização. CEOs, como políticos, precisam equilibrar egos, pressões e prioridades – e às vezes isso implica um certo grau de “ajuste de narrativa”. 

Mas o contexto da OpenAI ajuda a entender por que a tensão chegou tão longe. A empresa nasceu como um laboratório de pesquisa sem fins lucrativos e com uma missão idealista, até perceber que seus modelos ficavam mais poderosos à medida que recebiam mais dados e poder computacional.

Desenvolver esse tipo de tecnologia se tornou algo extremamente caro e competitivo, forçando a OpenAI a investir pesado e a buscar novas fontes de receita com produtos comerciais voltados a empresas e consumidores.

fachada do edifício sede da OpenAI na Califórnia
Crédito: Dreamstime

Mesmo assim, Altman seguia subordinado a um conselho sem fins lucrativos. Toner explicou no “TED AI” que o conselho existia justamente “para garantir que o interesse público estivesse acima dos lucros e dos investidores”. Talvez fosse uma contradição difícil de sustentar. Mas há limites.

Se o CEO estava – ou ainda está – escondendo informações do conselho, algo está errado. Diante dos riscos que a IA representa, é especialmente preocupante que uma das omissões atribuídas a Altman envolva justamente medidas de segurança.

Uma superinteligência artificial não se importa com quem está no comando. Se não for desenvolvida e controlada com responsabilidade, o potencial de causar danos é o mesmo.


SOBRE O AUTOR

Mark Sullivan é redator sênior da Fast Company e escreve sobre tecnologia emergente, política, inteligência artificial, grandes empres... saiba mais