Concentração de poder: quem controla as máquinas que controlam a IA?
Se quisermos evitar um futuro em que o controle da IA será decidido apenas pelas big techs, é preciso tratar a computação como um bem público

Imagine um data center na beira de um deserto. Dentro dele, fileiras intermináveis de servidores brilham e zumbem, movendo ar por imensas torres de resfriamento e consumindo mais eletricidade do que todas as cidades vizinhas juntas.
Não é ficção científica: é a realidade dos vastos aglomerados de computação usados em inteligência artificial, muitas vezes descritos como “supercomputadores de IA” devido à sua escala colossal, responsáveis pelo treinamento dos modelos mais avançados atualmente.
Tecnicamente, não são supercomputadores no sentido clássico. Os supercomputadores tradicionais são máquinas altamente especializadas, projetadas para simulações científicas – como modelagem climática, física nuclear ou astrofísica –, afinadas para rodar códigos paralelizados em milhões de núcleos.
- 3 bolhas de IA estão inflando ao mesmo tempo – e isso pode ser uma coisa boa
- Brasil investirá R$ 23 bilhões em Inteligência Artificial até 2028; veja o que muda
- Agentes de IA estão nos fazendo repensar a infraestrutura computacional global
- Disseminação da IA aumenta o risco de colapso dos data centers globais
O que move a IA, por outro lado, são imensos clusters de GPUs ou aceleradores customizados (como os Nvidia H100s ou os TPUs do Google), interligados por conexões de altíssima largura de banda e otimizados para as multiplicações de matrizes no coração do aprendizado profundo. Eles não estão resolvendo equações para previsões meteorológicas: estão processando trilhões de tokens para prever a próxima palavra.
Ainda assim, o termo “supercomputador” se mantém, porque seu desempenho, consumo de energia e custos são comparáveis (ou até superiores) aos das máquinas científicas mais rápidas do mundo. E as implicações são igualmente profundas.
A corrida armamentista dos “supercomputadores” de IA já está em andamento.
Um estudo recente, que analisou 500 sistemas de computação de IA pelo mundo, revelou que seu desempenho dobra a cada nove meses, enquanto custos e consumo de energia dobram a cada ano.
Nesse ritmo, a fronteira da IA não é apenas sobre melhores algoritmos ou arquiteturas mais inteligentes. É sobre quem consegue pagar, alimentar e resfriar essas máquinas gigantescas – e quem não consegue.
O FOSSO EXPONENCIAL
Quando o desempenho dobra a cada nove meses, mas o custo dobra a cada 12, cria-se um fosso exponencial: cada salto empurra a próxima fronteira ainda mais longe do alcance da maioria dos competidores.
Não se trata da velha disputa entre modelos de código aberto e fechado: é algo mais fundamental. Se não há acesso ao “substrato computacional” – o hardware, a eletricidade, o resfriamento e os centros de processamento necessários para treinar a próxima geração de modelos de linguagem –, você sequer está na corrida.

Universidades não conseguem acompanhar. Startups pequenas não conseguem acompanhar. Muitos governos também não conseguem.
O estudo mostra uma concentração alarmante: os clusters de IA mais poderosos estão nas mãos de poucas corporações, privatizando o acesso à vanguarda da tecnologia. Quando a computação se torna o gargalo, a mão invisível do mercado não gera diversidade. Gera monopólio.
CONTROLE DA IA OU DEMOCRATIZAÇÃO?
A retórica em torno da IA costuma enfatizar a democratização: ferramentas acessíveis a todos, pequenos atores empoderados, criatividade liberada.
Mas, na prática, o poder de moldar a trajetória da tecnologia está migrando para os donos das megafazendas de servidores. São eles que decidem quais modelos são viáveis, quais experimentos avançam, quais abordagens recebem bilhões de tokens de treinamento.
Isso não é apenas uma questão de dinheiro. É sobre infraestrutura como forma de governança. Quando apenas três ou quatro empresas controlam os maiores clusters, controlam também os limites do possível.

Se a sua ideia exige treinar um modelo com trilhões de parâmetros a partir do zero e você não está dentro de uma dessas empresas, sua ideia continuará apenas no papel.
Governos começam a perceber isso. Na Cúpula de Inteligência Artificial de Paris, realizada em fevereiro, países se comprometeram a investir bilhões para ampliar a infraestrutura nacional de IA. França, Alemanha e Reino Unido avançam para expandir sua capacidade computacional.
Os Estados Unidos lançaram iniciativas em larga escala para acelerar a produção doméstica de chips, enquanto a China aposta em sua própria estratégia: investir pesadamente em energia solar e eólica para garantir não apenas chips, mas também a eletricidade barata que os alimenta.
O próximo ponto de controle da IA não é o software, mas o hardware.
A Europa, como de costume, fica no meio. Seus marcos regulatórios podem ser mais avançados, mas a capacidade de implantar IA em escala depende de assegurar energia e computação em termos competitivos. Sem isso, “soberania em IA” será apenas retórica.
A ironia é que, mesmo enquanto governos correm para afirmar soberania, os verdadeiros vencedores da corrida armamentista da IA podem ser as corporações, não as nações.
O controle sobre a computação está se concentrando tão rapidamente no setor privado que nos aproximamos de um cenário comum em obras de ficção científica: empresas mais poderosas que Estados, não apenas nos mercados, mas na própria definição do futuro do conhecimento humano.
O QUE EXIGIR?
Se quisermos evitar um futuro em que o destino da IA seja decidido nas salas de conselho de três empresas e nos ministérios de duas superpotências, é preciso tratar a computação como um bem público. Isso significa exigir:
- Transparência sobre quem possui e opera os maiores clusters.
- Auditabilidade do uso: quais modelos estão sendo treinados, para quais finalidades.
- Infraestrutura compartilhada, financiada com recursos públicos ou via consórcios, permitindo que pesquisadores e pequenas empresas possam experimentar sem pedir permissão a corporações trilionárias.
- Responsabilidade energética, obrigando operadores a divulgar em tempo real não apenas o consumo agregado, mas também fontes, emissões e pegada hídrica.
O debate não pode se limitar a “qual modelo é mais seguro” ou “qual conjunto de dados é mais justo”. Deve incluir quem controla as máquinas que tornam esses modelos possíveis.
AS MÁQUINAS POR TRÁS DAS MÁQUINAS
O próximo ponto de controle da IA não é o software, mas o hardware. Os imensos clusters que treinam os modelos são hoje os verdadeiros árbitros do progresso. São eles que decidem o que é possível, o que é prático e quem pode participar.

A história ensina que, quando o poder se centraliza nessa escala, a responsabilidade raramente acompanha. Sem intervenções deliberadas, corremos o risco de construir um ecossistema de IA onde a inovação é estrangulada, a supervisão é opcional e os custos – financeiros, ambientais ou humanos – só aparecem quando já é tarde demais.
A corrida armamentista dos “supercomputadores” de IA já está em andamento. A questão é se a sociedade vai escolher assistir passivamente à privatização do futuro da inteligência artificial ou se vai reconhecer que as máquinas por trás das máquinas merecem tanta atenção quanto os algoritmos que elas tornam possíveis.