O que muda se a OpenAI virar uma organização com fins lucrativos
A missão original de construir uma inteligência artificial geral segura e benéfica para toda a humanidade pode ser ofuscada pela busca por lucros
Na última quarta-feira (dia 25), a principal executiva de tecnologia da OpenAI, Mira Murati, revelou que vai deixar a empresa, após quase sete anos. A CTO é uma figura chave da organização e chegou a atuar com CEO temporária em novembro do ano passado, quando o então CEO Sam Altman foi demitido pelo conselho de administração.
Mira Murati escreveu no Twitter (atual X) que está saindo porque quer “criar o tempo e o espaço para fazer minhas próprias explorações”. Ela é a mais recente de uma série de executivos de destaque a deixar a companhia, incluindo o cofundador John Schulman.
O anúncio da saída de Murati aconteceu praticamente ao mesmo tempo em que saiu a notícia de que a criadora do ChatGPT está trabalhando em um plano para reestruturar seu negócio principal e se transformar em uma empresa com fins lucrativos.
Com essa manobra, a OpenAI deixaria de ser controlada pelo seu conselho sem fins lucrativos (aquele que demitiu Altman no ano passado) e se tornaria mais atraente para investidores. Segundo informações divulgadas pela imprensa, a entidade sem fins lucrativos da OpenAI continuaria a existir e teria uma participação minoritária na empresa com fins lucrativos.
Para entender o impacto dessa decisão, é preciso primeiro entender o modelo de governança da OpenAI. Ela foi fundada em 2015 como uma organização sem fins lucrativos, com a missão de “construir uma inteligência artificial geral (IAG) segura e benéfica para toda a humanidade”.
Para levantar mais capital do que seria possível por meio de doações, a empresa criou uma holding que lhe permite captar investimentos para uma subsidiária com fins lucrativos.
no início do ano, a OpenAI desmontou a equipe que focava nos riscos de longo prazo da IA.
Unir lucro e propósito possibilitou que ela arrecadasse bilhões de investidores em busca de retorno financeiro, equilibrando “comercialidade com segurança e sustentabilidade, em vez de focar na pura maximização de lucros”, conforme explicado em seu site.
Nesse modelo, o lucro é limitado a aproximadamente 100 vezes o valor investido inicialmente. Essa estrutura exige que a OpenAI volte a ser uma organização sem fins lucrativos uma vez que esse ponto seja alcançado. O modelo foi projetado para evitar que a empresa se afastasse de seu propósito e para evitar comprometer sua missão ao buscar o lucro a qualquer preço.
UMA TÍPICA STARTUP
Com a mudança da OpenAI para uma organização com fins lucrativos, Altman receberia participação acionária pela primeira vez na empresa, que pode valer US$ 150 bilhões após a reestruturação – já que também tenta remover o limite de lucro para os investidores –, segundo fontes ouvidas pela agência Reuters.
Os detalhes da proposta de reestruturação corporativa, relatada pela primeira vez pela Reuters, destacam mudanças significativas de governança ocorrendo nos bastidores de uma das empresas de IA mais importantes do mundo. O plano ainda está sendo discutido com advogados e acionistas, e o cronograma para concluir a reestruturação não está definido.
Um porta-voz da OpenAI disse que a organização continua focada em construir uma IA que beneficie a todos. “Estamos trabalhando com o conselho para garantir que estejamos na melhor posição para ter sucesso em nossa missão. A entidade sem fins lucrativos é fundamental para nossa missão e continuará a existir", afirmou.
Sem o controle da entidade sem fins lucrativos, a OpenAI passaria a operar como uma típica startup – um movimento geralmente bem-visto pelos investidores, que já injetaram bilhões na empresa.
Mas também levanta preocupações da comunidade de segurança em IA sobre se ela ainda teria governança suficiente para se responsabilizar na busca por uma IA Geral, já que, no início do ano, a OpenAI desmontou a equipe que focava nos riscos de longo prazo da IA.
CÓDIGO ABERTO X FECHADO
Dias antes da notícia sobre as possíveis mudanças na governança da OpenAI, Sam Altman anunciou, em um posto no seu blog pessoal, a chegada de uma "Era da Inteligência" induzida pela IA.
Segundo ele, estamos à beira dessa nova era de prosperidade porque "o aprendizado profundo funcionou". E a OpenAI provou que, ao treinar grandes modelos de linguagem com mais e mais poder de computação, obtém-se IA previsivelmente mais inteligente.
De fato, a IA pode acelerar o progresso humano para o bem maior. Mas parece mais provável que ela simplesmente concentre uma inteligência sem precedentes nas mãos de poucos – aqueles que têm os recursos e as capacidades para aplicá-la.
Muita gente da comunidade de código aberto acredita que os modelos de IA podem ser melhores, mais seguros e mais justos quando seus materiais brutos – os modelos, parâmetros, códigos, dados de treinamento etc. – estão nas mãos de várias pessoas, e não concentrado em um punhado de megacorporações.
Muitos modelos de IA que estarão em produção nas próximas décadas serão de código aberto, mas boa parte dos maiores, mais modernos e de melhor desempenho atualmente são fechados.
Altman, como fundador da OpenAI, foi a força motriz por trás do controle rigoroso do acesso aos modelos e do foco da empresa em monetizá-los. Sua abordagem não está alinhada com o propósito original da organização, de promover o acesso à inteligência artificial para todos.
Um porta-voz da OpenAI disse que a organização continua focada em construir uma IA que beneficie a todos.
"Acredito firmemente que o código fechado fará mais mal do que bem no longo prazo", postou o engenheiro da Hugging Face Vaibhav Srivastav no X. "A concentração de inteligência não é o caminho a seguir!"
Os benefícios da Era da Inteligência provavelmente vão "pingar" aos poucos das grandes corporações ricas para o resto de nós. Grandes empresas de tecnologia que desenvolvem e vendem IA, empresas de infraestrutura (como a Nvidia) e grandes corporações de todos os tipos serão beneficiadas. Para os demais, os benefícios – se houver – só virão muito mais tarde.
Com informações de Mark Sullivan e Jessica Bursztynsky, da Fast Company, e Krystal Hu e Kenrick Cai, da Reuters.