Na corrida da IA, a liderança agora dura semanas
Os concorrentes agora conseguem igualar os sistemas de última geração em semanas, aumentando os receios sobre a redução da vantagem competitiva

Na corrida da inteligência artificial, os avanços já não são medidos em anos, nem mesmo em meses, mas em semanas.
O lançamento do Claude Opus 4.6, há pouco mais de duas semanas, foi um marco para sua criadora, a Anthropic, ao entregar desempenho de ponta em diversas áreas. Mas, em menos de sete dias, a concorrente chinesa Z.ai apresentou seu próprio modelo no estilo Opus, o GLM-5. Nas redes sociais, muitos o classificaram como uma alternativa mais barata ao Opus.
A vantagem da Z.ai, porém, também foi breve. Assim como a Anthropic havia sido pressionada pelo lançamento do GLM-5, o modelo chinês foi rapidamente baixado, comprimido e relançado em uma versão capaz de rodar localmente, sem acesso à internet.
Acusações têm circulado sobre como empresas de IA conseguem igualar – e depois superar – o desempenho de seus rivais, especialmente no caso de companhias chinesas que lançam modelos comparáveis aos norte-americanos em questão de dias ou semanas.
O Google reclama há tempos dos riscos da chamada “destilação”, prática em que empresas bombardeiam modelos com prompts para extrair padrões internos de raciocínio e lógica, gerando enormes volumes de respostas que depois são usados para treinar clones mais baratos.
Um agente, segundo relatos, teria submetido o modelo Gemini, do Google, a mais de 100 mil interações na tentativa de desvendar os segredos por trás de seu desempenho.

“Eu realmente acho que o fosso competitivo está diminuindo”, afirma Shayne Longpre, doutorando do Instituto de Tecnologia de Massachusetts (MIT), cuja pesquisa se concentra em políticas de IA.
A mudança acontece tanto na velocidade dos lançamentos quanto na natureza das melhorias. Longpre argumenta que a distância entre os melhores modelos fechados e as alternativas de pesos abertos está encolhendo rapidamente.
“A diferença entre eles e os modelos totalmente open source ou de pesos abertos é de cerca de três a seis meses”, explica, citando pesquisas da organização sem fins lucrativos Epoch AI, que acompanha o desenvolvimento de modelos.
O motivo desse encolhimento é que boa parte do progresso agora acontece depois que o modelo já foi lançado. Segundo Longpre, as empresas estão aplicando diferentes técnicas de aprendizado por reforço, ajustes finos (fine-tuning), ampliando o tempo de raciocínio em testes ou expandindo as janelas de contexto, o que reduz drasticamente o período de adaptação, “em vez de ter que pré-treinar um modelo totalmente novo do zero”.
Leia mais: Com novos players, a corrida da IA não é mais um passeio para as big techs
Cada melhoria incremental acelera ainda mais o ciclo. “Eles estão lançando novidades a cada uma ou duas semanas, com todas essas variantes”, diz. “É como atualizar um software com patches [correções pontuais de bugs].”
Mas as empresas de IA dos EUA, que costumam liderar muitos desses avanços, têm se manifestado cada vez mais contra a prática. A OpenAI alegou, em memorando enviado a parlamentares, que a DeepSeek treinou sistemas competitivos a partir da destilação de outputs de modelos norte-americanos.
Mesmo quando ninguém está “roubando” no sentido estrito, o ecossistema de pesos abertos está se tornando cada vez mais ágil em replicar técnicas que se mostram eficazes nos modelos de fronteira.
A mudança acontece tanto na velocidade dos lançamentos quanto na natureza das melhorias.
Parte do problema está na própria definição do que significa “aberto” nas licenças desses modelos, afirma Thibault Schrepel, professor associado de direito na Vrije Universiteit Amsterdam, que estuda concorrência em modelos fundacionais.
“Com muita frequência ouvimos que um sistema é ou não open source”, diz. “Mas isso é uma forma muito limitada de entender o que realmente é ou não aberto.”
É preciso analisar os termos específicos dessas licenças, acrescenta Schrepel. “Se você examinar com cuidado as licenças de todos os modelos, verá que elas limitam bastante o que se pode fazer com aquilo que chamam de open source.”
A licença do Llama 3, da Meta, por exemplo, inclui um gatilho para serviços de grande escala, mas não para os menores. “Se você implantar para mais de 700 milhões de usuários, precisa solicitar uma licença”, explica. Esse sistema de dois níveis pode criar zonas cinzentas que permitem o surgimento de práticas questionáveis.

Como compensação, o mercado tende a se dividir, prevê Longpre, do MIT. De um lado, estarão modelos baratos, cada vez mais capazes, hospedados pelo próprio usuário e voltados para tarefas cotidianas. De outro, sistemas premium de fronteira, destinados a trabalhos mais complexos e de alto risco.
“Acho que o nível está subindo”, afirma, prevendo “modelos gerais muito acessíveis, auto hospedados, inclusive em tamanhos cada vez menores”. Ainda assim, ele acredita que os usuários vão continuar recorrendo a modelos da OpenAI, do Google e da Anthropic para tarefas importantes e especializadas.
Impedir totalmente a destilação pode ser impossível, acrescenta Longpre. Para ele, não há como impedir que, sempre que um novo modelo seja lançado, concorrentes tentem extrair e replicar seus melhores elementos. “No fim das contas, é um problema inevitável.”