Documentos lançam luz sobre a demissão de Sam Altman da OpenAI em 2023
O futuro da IA depende de como o setor vai conseguir aplicar essa tecnologia com segurança e responsabilidade – e a confiança é peça-chave nessa equação

Poucas pessoas fizeram tanto para alimentar a crença na próxima revolução industrial – a da inteligência artificial – quanto Sam Altman, CEO da OpenAI. Essa confiança já movimentou centenas de bilhões de dólares em investimentos para construir a infraestrutura que sustenta essa transformação.
Alguns analistas afirmam que esse volume de capital tem sustentado o mercado de ações norte-americano – e, indiretamente, a economia dos Estados Unidos. O entusiasmo com a IA também levou Washington a abandonar, quase por completo, o papel de fiscalizador e agir mais como apoiador e promotor da indústria.
Mas as dúvidas sobre a confiabilidade de Altman continuam. Novos detalhes sobre sua polêmica demissão em 2023 – seguida de uma rápida recontratação e de uma reformulação do conselho – vieram à tona com a divulgação de parte do depoimento de Ilya Sutskever, cofundador e ex-diretor científico da OpenAI, em um processo movido por Elon Musk contra a empresa.
Na época, o conselho alegou que Altman havia escondido informações importantes sobre o andamento dos negócios. Também circulavam relatos de que ele sabotava a própria equipe, colocando executivos uns contra os outros.
Durante um depoimento de sete horas, Sutskever confirmou acreditar que Altman mentia com frequência. Ele relatou que o CEO criava atritos entre a então diretora de tecnologia, Mira Murati, e Daniela Amodei – que mais tarde deixaria a empresa junto com seu irmão Dario e outros colegas para fundar a Anthropic.
Os depoimentos indicam que esse comportamento não foi um episódio isolado, mas parte de um padrão. Segundo Sutskever, ele e Murati vinham registrando as condutas de Altman e planejando sua saída havia mais de um ano, esperando o momento em que os aliados do CEO no conselho estivessem enfraquecidos demais para impedi-la.

Helen Toner, ex-integrante do conselho, contou que, cerca de um mês antes da demissão, Murati e Sutskever começaram a alertar o grupo sobre o comportamento de Altman.
“De repente, os dois começaram a nos dizer que não confiavam nele, que o ambiente estava ficando tóxico”, relatou Toner em entrevista ao podcast “TED AI”.
“Usaram o termo ‘abuso psicológico’, dizendo que ele não era a pessoa certa para conduzir a empresa rumo à inteligência artificial geral e que não acreditavam que ele fosse capaz – ou estivesse disposto – a mudar”, completou.
Sutskever chegou a escrever um memorando de 52 páginas detalhando as falhas de conduta de Altman, a pedido de Adam D’Angelo e, possivelmente, das conselheiras Helen Toner e Tasha McCauley.
A empresa nasceu como um laboratório de pesquisa sem fins lucrativos e com uma missão idealista.
Ele também elaborou outro documento sobre Greg Brockman, então presidente do conselho, que renunciou logo após a saída de Altman.
Toner citou ainda outros episódios de omissão. Segundo ela, Altman não comunicou ao conselho o lançamento do ChatGPT e tampouco revelou que era dono do fundo de investimento vinculado à OpenAI – mesmo se apresentando como um conselheiro independente, sem interesses financeiros diretos.
Ela afirmou também que Altman teria fornecido informações incorretas sobre os poucos processos formais de segurança em vigor, o que impediu o conselho de avaliar se essas práticas estavam sendo seguidas. Toner, que é especialista em segurança de IA, afirmou que o grupo não tinha como medir o nível real de risco da empresa.
IDEALISMO x LUCRO
É verdade que disputas internas acontecem em qualquer organização. CEOs, como políticos, precisam equilibrar egos, pressões e prioridades – e às vezes isso implica um certo grau de “ajuste de narrativa”.
Mas o contexto da OpenAI ajuda a entender por que a tensão chegou tão longe. A empresa nasceu como um laboratório de pesquisa sem fins lucrativos e com uma missão idealista, até perceber que seus modelos ficavam mais poderosos à medida que recebiam mais dados e poder computacional.
Desenvolver esse tipo de tecnologia se tornou algo extremamente caro e competitivo, forçando a OpenAI a investir pesado e a buscar novas fontes de receita com produtos comerciais voltados a empresas e consumidores.

Mesmo assim, Altman seguia subordinado a um conselho sem fins lucrativos. Toner explicou no “TED AI” que o conselho existia justamente “para garantir que o interesse público estivesse acima dos lucros e dos investidores”. Talvez fosse uma contradição difícil de sustentar. Mas há limites.
Se o CEO estava – ou ainda está – escondendo informações do conselho, algo está errado. Diante dos riscos que a IA representa, é especialmente preocupante que uma das omissões atribuídas a Altman envolva justamente medidas de segurança.
Uma superinteligência artificial não se importa com quem está no comando. Se não for desenvolvida e controlada com responsabilidade, o potencial de causar danos é o mesmo.