A virada dos agentes de IA: o que mudou em 2025 e o que esperar de 2026
Protocolos, modelos abertos e novos navegadores fizeram de 2025 o ano em que atingimos um ponto de inflexão da IA agêntica

Na inteligência artificial, 2025 marcou uma virada decisiva. Sistemas antes restritos a laboratórios de pesquisa e protótipos começaram a surgir como ferramentas do dia a dia. No centro dessa transição esteve a ascensão dos agentes de IA – sistemas capazes de usar outros softwares e agir de forma autônoma.
Embora pesquisadores estudem inteligência artificial há mais de 60 anos e o termo “agente” faça parte do vocabulário da área há décadas, 2025 foi o ano em que o conceito se tornou concreto, tanto para desenvolvedores quanto para consumidores.
No ano passado, a definição de agente de IA deixou o enquadramento acadêmico clássico – sistemas que percebem, raciocinam e agem – e passou a refletir a descrição da Anthropic: grandes modelos de linguagem (LLMs) capazes de usar ferramentas de software e executar ações de forma autônoma.
Se os LLMs já se destacavam há anos por respostas baseadas em texto, a mudança recente está em sua capacidade ampliada de agir por meio de APIs, coordenar-se com outros sistemas e concluir tarefas de forma independente.
Essa transformação não aconteceu da noite para o dia. Um ponto de inflexão importante ocorreu no fim de 2024, quando a Anthropic lançou o Model Context Protocol (MCP).
O protocolo permitiu que desenvolvedores conectassem LLMs a ferramentas externas de maneira padronizada, dando aos modelos a capacidade de ir além da simples geração de texto. Com isso, o caminho ficou aberto para que 2025 se consolidasse como o ano dos agentes de IA.
OS GRANDES MARCOS DO ANO
O ritmo acelerou rapidamente. Em janeiro, o lançamento do modelo chinês DeepSeek-R1 como um modelo de pesos abertos abalou suposições sobre quem poderia construir LLMs de alto desempenho, provocou instabilidade momentânea nos mercados e intensificou a competição global.
Um modelo de pesos abertos é aquele cujo treinamento – refletido em valores, ou pesos – é disponibilizado publicamente. Ao longo de 2025, grandes laboratórios dos EUA, como OpenAI, Anthropic, Google e xAI, lançaram modelos maiores e de alto desempenho.
Ao mesmo tempo, empresas chinesas de tecnologia, incluindo Alibaba, Tencent e a própria DeepSeek, expandiram o ecossistema de modelos abertos a tal ponto que os modelos chineses passaram a ser mais baixados do que os norte-americanos.

Outro ponto de virada veio em abril, quando o Google apresentou o protocolo Agent2Agent. Enquanto o Model Context Protocol da Anthropic se concentrava em como os agentes usam ferramentas, o Agent2Agent abordava como os agentes se comunicam entre si. Os dois protocolos foram concebidos para funcionar de forma complementar.
Mais tarde, tanto a Anthropic quanto o Google doaram seus protocolos à Fundação Linux, organização sem fins lucrativos de software de código aberto, consolidando-os como padrões abertos, e não apenas experimentos proprietários.
Esses avanços rapidamente chegaram aos produtos de consumo. Em meados de 2025, começaram a surgir os chamados navegadores com IA.
ao automatizar trabalhos técnicos e repetitivos, os agentes de IA também reduzem a barreira para atividades maliciosas.
Ferramentas como Comet, da Perplexity; Dia, da Browser Company; GPT Atlas, da OpenAI; Copilot, no Microsoft Edge; Fellou, da ASI X Inc.; Genspark, da MainFunc.ai; Opera Neon; entre outros, reformularam o navegador como um participante ativo, e não apenas uma interface passiva.
Na prática, em vez de apenas ajudar a pesquisar detalhes de uma viagem, o navegador passa a participar do próprio processo de reserva.
Ao mesmo tempo, desenvolvedores de fluxos de trabalho como n8n e Antigravity, do Google, reduziram a barreira técnica para criar sistemas personalizados de agentes, ampliando um movimento já iniciado por agentes de programação como Cursor e GitHub Copilot.
MAIS PODER, MAIS RISCOS
À medida que os agentes de IA se tornaram mais capazes, seus riscos também ficaram mais difíceis de ignorar. Em novembro, a Anthropic revelou que seu agente Claude Code havia sido usado de forma indevida para automatizar partes de um ataque cibernético.
O episódio ilustrou uma preocupação mais ampla: ao automatizar trabalhos técnicos e repetitivos, os agentes de IA também reduzem a barreira para atividades maliciosas.
Essa tensão marcou grande parte de 2025. Os agentes ampliaram o que indivíduos e organizações podem fazer, mas também potencializaram vulnerabilidades já existentes. Sistemas que antes eram geradores isolados de texto tornaram-se atores interconectados, capazes de usar ferramentas e operar com pouca supervisão humana.
NO QUE FICAR DE OLHO EM 2026
Olhando para frente, várias questões em aberto devem moldar a próxima fase dos agentes de IA.
Uma delas são os benchmarks. Os métodos tradicionais de avaliação – semelhantes a provas estruturadas, com perguntas e pontuação padronizada – funcionam bem para modelos isolados. Mas os agentes de IA são sistemas compostos, que combinam modelos, ferramentas, memória e lógica de decisão.
Por isso, pesquisadores querem avaliar não apenas os resultados, mas também os processos, como pedir que alunos mostrem o raciocínio, e não apenas a resposta final.

Avançar nesse campo será crucial para aumentar a confiabilidade e a confiança, garantindo que um agente de IA execute corretamente a tarefa proposta. Uma abordagem é estabelecer definições claras sobre agentes de IA e fluxos de trabalho baseados em IA. As organizações terão que mapear com precisão onde a IA se integra aos processos existentes ou cria novos.
Outro ponto de atenção é a governança. No fim de 2025, a Fundação Linux anunciou a criação da Fundação IA Agêntica, sinalizando um esforço para estabelecer padrões compartilhados e boas práticas.
Os agentes de IA levantam preocupações sobre automação, substituição de empregos e vigilância
Se for bem-sucedida, a iniciativa pode desempenhar um papel semelhante ao do Consórcio World Wide Web (W3C) na construção de um ecossistema aberto e interoperável.
Há também um debate crescente sobre o tamanho dos modelos. Embora modelos grandes e generalistas dominem as manchetes, modelos menores e mais especializados costumam ser mais adequados para tarefas específicas.
À medida que os agentes de IA se tornam ferramentas configuráveis para consumidores e empresas – seja por navegadores ou softwares de gestão de fluxos de trabalho –, o poder de escolher o modelo certo passa cada vez mais para os usuários, e não apenas para laboratórios ou grandes corporações.
OS DESAFIOS QUE NOS AGUARDAM
Apesar do otimismo, desafios sociais e tecnológicos relevantes permanecem. A expansão da infraestrutura de data centers pressiona redes de energia e afeta comunidades locais. No ambiente de trabalho, os agentes de IA levantam preocupações sobre automação, substituição de empregos e vigilância.
Do ponto de vista da segurança, conectar modelos a ferramentas e empilhar agentes amplia riscos que já existem nos LLMs isolados. Em particular, profissionais da área enfrentam os perigos das injeções indiretas de prompt, nas quais comandos são ocultados em espaços abertos da web, lidos por agentes de IA e acabam gerando ações prejudiciais ou não intencionais.

A regulação é outro ponto ainda em aberto. À medida que agentes de IA se incorporam à vida digital, questões sobre acesso, responsabilização e limites seguem em grande parte sem resposta.
Enfrentar esses desafios exigirá mais do que avanços técnicos. Será necessário adotar práticas rigorosas de engenharia, design cuidadoso e documentação clara sobre como os sistemas funcionam e falham.
Somente ao tratar os agentes de IA como sistemas sociotécnicos, e não apenas como componentes de software, será possível construir um ecossistema de inteligência artificial que seja ao mesmo tempo inovador e seguro.
Este artigo foi publicado originalmente no "The Conversation" sob licença Creative Commons. Leia o artigo original.