Com novo modelo o3-mini, OpenAI diz que IA vai ficar mais esperta e mais barata
Desenvolvedores podem acessar o o3-mini da OpenAI por meio de uma APIs selecionar entre três níveis de aprofundamento de raciocínio

A OpenAI lançou seu mais novo modelo de raciocínio, chamado o3-mini, na sexta-feira (dia 31). A empresa afirma que o modelo oferece mais inteligência do que seu primeiro pequeno modelo de raciocínio, o1-mini, mas com o mesmo baixo custo e velocidade. O o3-mini da OpenAI se destaca em ciência, matemática e problemas de programação, segundo a própria empresa.
Os desenvolvedores podem acessar o o3-mini da OpenAI por meio de uma API e selecionar entre três níveis de aprofundamento de raciocínio. O nível mais baixo, por exemplo, pode ser o mais adequado para problemas menos complexos, nos quais a velocidade da resposta é um fator importante.
O anúncio chega após uma semana em que a empresa chinesa DeepSeek dominou as manchetes após lançar dois modelos de IA surpreendentemente poderosos e econômicos, DeepSeek-V3 e DeepSeek-R1. Este último, um modelo de raciocínio, obteve pontuações próximas e, às vezes, superiores às do o1-mini em testes de referência reconhecidos.
No entanto, conforme reportado pelo "The New York Times", muitas das respostas do DeepSeek repetem campanhas de desinformação do governo chinês, incluindo informações históricas distorcidas fortemente alinhadas com a propaganda do país.
Noam Brown, pesquisador da OpenAI, declarou no X/ Twitter sobre o o3-mini: "estamos mudando toda a curva de custo-inteligência. A inteligência dos modelos vai continuar subindo e o custo para a mesma inteligência, caindo." Ele afirmou que o o3-mini da OpenAI supera até a versão completa do o1 em várias avaliações.
We at @OpenAI are proud to release o3-mini, including for the FREE tier. On many evals it outperforms o1. We’re shifting the entire cost‑intelligence curve. Model intelligence will continue to go up, and the cost for the same intelligence will continue to go down. pic.twitter.com/3zOP5whJFT
— Noam Brown (@polynoamial) January 31, 2025
Em dezembro, o CEO da OpenAI, Sam Altman, disse que os modelos da série o3 demonstram níveis significativamente mais altos de inteligência do que os modelos o1, especialmente em programação e resolução de problemas matemáticos avançados.
A versão maior do o3 também alcançou a maior pontuação já registrada por um sistema de IA em um teste chamado ARC-AGI, um teste de lógica e raciocínio projetado para medir o progresso em direção à inteligência artificial geral – uma IA tão inteligente quanto (ou mais) que humanos na maioria das tarefas. O o3 obteve 87,5% no teste, contra cerca de 85% dos humanos.
A OpenAI anunciou originalmente o o3 junto com uma versão menor, chamada o3-mini, em dezembro. Mas afirmou que concluiria seus testes internos de segurança e buscaria feedback de um grupo externo de especialistas em segurança antes de lançá-los. A empresa confirmou que lançaria o o3-mini em janeiro, mas não deu um prazo para a versão maior, o3.
A OpenAI optou por não expor a cadeia de pensamento dos modelos o1, e o mesmo vale para o o3-mini. Pesquisas mostram que gerar uma cadeia de pensamento pode, às vezes, confundir os modelos e desviá-los do foco.
No entanto, o DeepSeek-R1 foi treinado para exibir sua cadeia de pensamento e o Google anunciou, em dezembro, um novo modelo experimental chamado Gemini 2.0 Flash Thinking, que também mostra seu processo de “pensamento”.
COMO FUNCIONA O O3-MINI DA OPENAI
Modelos de raciocínio representam um novo capítulo no desenvolvimento de IA generativa. De 2020 a 2023, os laboratórios de IA aumentaram o desempenho de seus modelos principalmente treinando-os previamente com mais dados e maior capacidade computacional.
No entanto, essa abordagem de “força bruta” começou a apresentar retornos decrescentes em 2024. Por isso, os laboratórios de IA – com a OpenAI na liderança – passaram a ensinar os modelos a fazer mais raciocínio (e utilizar mais poder computacional) no momento da inferência, ou seja, logo após o usuário fazer uma pergunta ou apresentar um problema.
A inteligência dos modelos vai continuar subindo e o custo para a mesma inteligência, caindo.
O modelo pode, por exemplo, gerar várias sequências de tokens ao mesmo tempo e escolher a que leva à melhor resposta. Ou pode seguir uma determinada lógica e depois retroceder iterativamente se encontrar um impasse.
Esse processo gera muitos tokens, que precisam ser armazenados em uma janela de contexto enquanto o problema está sendo resolvido – o que exige bastante memória e poder computacional.
A primeira tentativa da OpenAI com modelos de raciocínio, a série o1, não foi perfeita. O maior modelo o1 é muito caro para rodar e leva muito tempo para chegar a uma resposta. Já os modelos o3, supostamente, realizam mais raciocínio durante a inferência, mas fornecem respostas mais rapidamente e com menor uso de poder computacional.