Por que os agentes de IA ainda agem como pessoas clicando em telas
Automação via navegador expõe limites da infraestrutura atual, formada por sistemas que não foram feitos para máquinas

O ano de 2025 deveria ter sido o dos agentes de IA. Empresas investiram pesado em sistemas autônomos capazes de executar tarefas sem intervenção humana, apenas para descobrir que, na prática, os agentes acabaram simulando exatamente as pessoas que deveriam substituir. A promessa era eficiência em escala, mas a infraestrutura simplesmente não estava pronta.
Hoje, um agente que tenta reservar um hotel abre um navegador, digita consultas de busca, clica em menus e preenche formulários. Isso é automação de navegador: um paliativo ineficiente que permite que os agentes funcionem em um mundo dominado por sistemas legados.
Os desafios técnicos eram previsíveis, mas ficaram de fora das apresentações para investidores. Enquanto isso, as empresas seguem aguardando retorno sobre o investimento.
Vivemos um período de transição. Os agentes até conseguem executar ações, mas os sistemas com os quais interagem nunca foram projetados para apoiá-los. Entender por que essa lacuna existe – e o que vai forçar seu fechamento – é essencial para qualquer empresa que esteja tomando decisões de infraestrutura agora.
O MODELO ANTIGO NÃO SE SUSTENTA
Quando um agente navega em um site de hotel, ele não faz uma solicitação direta por disponibilidade e preços. Em vez disso, consome poder computacional para simular pressionar teclas e mover o mouse, enquanto interpreta layouts visuais pensados para olhos humanos e executa fluxos de trabalho criados para alguém clicando fisicamente em páginas.
Além de ineficiente, a automação de navegador também apresenta sérios problemas de confiabilidade. O WebArena, um benchmark para testar agentes de IA na web, mostra que os modelos líderes concluem com sucesso apenas 35,8% das tarefas reais.
Em escala, essa combinação se torna cara. A pressão econômica acabará forçando soluções melhores, como já aconteceu antes na forma como os sistemas solicitam dados.
Durante muito tempo, APIs funcionaram como um cardápio fixo: você recebia todos os dados, mesmo quando precisava apenas de uma parte. Se uma empresa de publicidade consultasse o Facebook por um identificador específico de usuário, a API devolvia tudo naquele ponto, ainda que apenas uma pequena parte fosse necessária. Isso gerava tráfego desnecessário, consultas excessivas a bancos de dados e custos de infraestrutura.
A resposta do setor foi o GraphQL – uma nova linguagem de requisições de API que permite especificar exatamente quais dados são necessários, sem receber nada além disso. Os ganhos de eficiência foram tão relevantes que o GraphQL se disseminou rapidamente. A expectativa é que algo parecido aconteça na forma como agentes de IA interagem com empresas.
AGENTES ENTRAM EM CENA
O setor de hotelaria oferece um estudo de caso claro sobre como a infraestrutura nativa para agentes terá que evoluir. No futuro, sistemas de reserva terão APIs projetadas especificamente para interação com agentes, oferecendo acesso direto a dados por meio de protocolos padronizados.
Em vez de abrir um navegador e simular cliques, o agente fará uma solicitação estruturada a um webhook ou endpoint de API, receberá informações de disponibilidade e preços em um formato imediatamente processável e concluirá a transação.
Essa mudança, porém, exige resolver um problema fundamental de autenticação dos dois lados. Hotéis precisam diferenciar solicitações legítimas de reserva de bots que raspam dados.
Usuários, por sua vez, precisam confiar que seus agentes não fecharão transações com fornecedores duvidosos ou pagarão preços inflados. Até que essa confiança seja estabelecida, é provável que exista receio dos dois lados.
A solução vai passar por associar solicitações de agentes a humanos verificados. Em vez de CAPTCHAs criados para bloquear bots, será necessário algum tipo de autenticação nativa para IA, capaz de confirmar que uma pessoa real autorizou a interação. A infraestrutura técnica incluirá documentação pública em que as empresas basicamente dirão: “aponte seu agente para esta URL”.
Mas a reconstrução não para na autenticação. Será preciso incorporar mecanismos de governança inexistentes na automação via navegador: trilhas de auditoria, capacidade de reversão de ações e estruturas claras de responsabilização. O custo será alto, mas os ganhos de eficiência ao eliminar a sobrecarga da automação compensarão o investimento.
A TRANSIÇÃO MAIS AMPLA
Essa mudança afetará toda a estrutura digital das empresas. Nos últimos 20 anos, os negócios passaram a depender de uma profusão de produtos SaaS. Cada um resolvia um problema específico, mas também adicionava custos de licenciamento, complexidade de integração e sobrecarga de gestão.
Com a popularização dos agentes de IA, muitos dos mesmos processos poderão ser executados por agentes únicos, tornando esses produtos inchados e rígidos cada vez mais difíceis de justificar. Isso cria um risco estrutural para diversas empresas de SaaS, à medida que os agentes alteram a lógica econômica do software corporativo.
Ao mesmo tempo, as empresas que constroem sistemas voltados para interação nativa com agentes precisarão repensar suas políticas de acesso a dados. Hoje, muitas publicações bloqueiam rastreadores de LLMs, plataformas restringem interações automatizadas, e empresas preferem rodar agentes em sua própria infraestrutura, em vez de entregá-los a Amazon, OpenAI ou Google. Essas barreiras têm razões legítimas, mas, à medida que os sistemas evoluem, será necessário distinguir raspagem indesejada de casos legítimos de uso empresarial.
Esse período de transição é temporário. A infraestrutura sempre se ajusta ao padrão mais eficiente — e a pressão por custos definirá o ritmo dessa mudança.
CRIAR UMA VANTAGEM ESTRUTURAL
Quando as empresas perceberem quanto poder computacional está sendo desperdiçado para simular cliques e movimentos de mouse, a pressão para limpar a arquitetura se tornará inevitável.
Mas, como a IBM já observou, a maioria das organizações também não está pronta internamente para agentes. Seus dados proprietários não estão estruturados para acesso automatizado, seus sistemas internos carecem de APIs expostas, e seus fluxos de trabalho não foram desenhados para decisões automatizadas.
As empresas que se prepararem agora conquistarão uma vantagem estrutural. As demais ficarão presas tentando adaptar fluxos legados enquanto o mercado muda sob seus pés.