Soberania cognitiva: entre o direito de pensar e os riscos civilizatórios
Estudo mapeia como a IA pressiona a autonomia mental e aborda como protegemos o que pensamos, sentimos e desejamos

Para quase um bilhão de pessoas no mundo, conversar com o ChatGPT já é um hábito semanal. O sistema serve não apenas para trabalho ou pesquisa: ele está lá para ouvir questões existenciais e ter conversas íntimas.
Rapidamente, essas plataformas criaram raízes no nosso cotidiano e ameaçam se infiltrar em áreas que, até então, estavam fora do alcance da tecnologia: a imaginação, o sentimento, o pensamento e a escolha.
Diante desse cenário, algumas perguntas se fazem urgentes: como proteger o que é essencialmente humano? Como garantir nosso direito de imaginar?
A resposta passa por um conceito ainda pouco conhecido, a soberania cognitiva. A soberania cognitiva é uma garantia que a nossa atenção, nossa memória e nossas emoções não sejam controladas por um algoritmo terceiro. A ideia coloca a autonomia da mente como um direito humano fundamental.
A ideia ganha força depois de a sociedade passar pelos efeitos em massa de algoritmos de redes sociais na polarização do discurso e na saúde mental dos usuários Com a ascensão explosiva da IA generativa, o debate se aprofunda e ganha outros níveis de gravidade.
“A IA apresenta riscos civilizatórios. São coisas que literalmente colocam em xeque a existência da sociedade, comprometendo o sapiens do homo sapiens”, afirma Vanessa Mathias, cofundadora da White Rabbit, pesquisadora e coautora de "Reimaginação radical: 5 lentes para vislumbrar futuros que desejamos viver".
A atrofia cognitiva é apontada como um dos riscos civilizatórios da inteligência artificial.
Vanessa se debruça sobre o tema da soberania cognitiva em um estudo lançado esta semana. Elaborada ao longo de 2025 com dados da Talk Inc. e com entrevistas com 20 especialistas de campos variados – como a neurocientista Carla Tieppo, a artista e professora Giselle Beiguelman e a economista Dora Kaufman –, a pesquisa analisa como a IA pode impactar comportamentos, emoções e estruturas sociais.
Feita também com a participação de grupos de debate com 19 profissionais da área de futurismo e design de futuros, a pesquisa aponta os caminhos de atuação individual e coletiva. O estudo nomeia seis possíveis riscos civilizatórios da IA: a atrofia cognitiva, intimidade sintética, neocolonialismo algorítmico, design invisível, extrativismo da mente e erosão da realidade.
BRAIN ROT CIVILIZATÓRIO
Em 2024, a palavra do ano eleita pelo dicionário Oxford foi “brain rot”. O termo descreve uma deterioração do estado mental ou intelectual da pessoa provocada pelo consumo excessivo de conteúdos de redes sociais. Com a IA, esse “apodrecimento” chega até na capacidade de reter informações e pensar criticamente.
Pesquisas científicas recentes têm mostrado que usar em excesso o ChatGPT afeta a memória. Em junho deste ano, o Massachusetts Institute of Technology (MIT), mostrou que o uso prolongado de ferramentas de IA generativa impactam negativamente a capacidade de aprendizagem e o cérebro humano.
Ao analisar a atividade cerebral de grupos de jovens por quatro meses, os pesquisadores perceberam que os participantes do estudo que optavam por usar unicamente o ChatGPT para escrever redações tinham conectividade neural reduzida, além de dificuldade de readaptação cerebral. O estudo classificou o resultado como possível sinal de dependência cognitiva.

Já outra pesquisa, da Universidade Carnegie Mellon, descobriu que a dependência de ferramentas de IA sem questionamentos reduz o esforço cognitivo aplicado ao trabalho.
No lugar de pensar sobre as tarefas, viramos meros “refinadores de prompt”, presos num ciclo de “doomprompting”, confundindo a manipulação da interface com criação intelectual.
A arquitetura dos incentivos das plataformas é feita para manter as pessoas entorpecidas.
A atrofia cognitiva é apontada como um dos riscos civilizatórios da IA. “O cérebro se acostuma ao não esforço. É o entorpecimento da hiper-conveniência”, afirma Vanessa.
Segundo pesquisa “IA na vida real”, feita pela Talk Inc em 2025, 62% dos brasileiros associam o uso da IA à atrofia mental e preguiça cognitiva. E 53% se preocupam com a dependência crescente da tecnologia para pensar e decidir.
A atrofia não é um efeito apenas para quem é usuário de ChatGPT. A inteligência artificial está em muitos outros serviços que usamos no dia a dia e já afetam a nossa memória. Afinal, quantos números de telefone você sabe de cor? Qual foi a última vez que dirigiu sem usar um aplicativo de GPS? Qual foi a grande ideia que teve fora das telas?
IA É PRODUTO, NÃO FERRAMENTA
Toda tecnologia transformadora impacta a cognição humana. É assim da pedra lascada à internet. A diferença, quando falamos da inteligência artificial generativa, é que ela não é apenas uma ferramenta, uma técnica. É um produto, desenhado, fabricado e controlado por um conjunto de empresas. Principalmente, essa IA foi construída com o propósito de manter os usuários engajados e para dar lucro.
A OpenAI, que atingiu a marca de US$ 500 bilhões de valor de mercado em outubro, projeta receita líquida acima de US$ 20 bilhões no final de 2025, com previsão de chegar às “centenas de bilhões” até 2030, segundo o CEO, Sam Altman. A criadora do Claude, a Anthropic, por sua vez, projeta chegar a US$ 70 bilhões em receita em 2028.

Nas entrelinhas de cada projeção bilionária está outro recado, aquele que já vimos ser dado pelo Vale do Silício antes: “cresça rápido, quebre coisas”. “A gente já sabe o que acontece quando uma empresa precisa crescer a qualquer custo e de onde ela tira o dinheiro quando algo não se paga”, diz Vanessa, lembrando do ocorrido com as redes sociais.
Quem perde na batalha da IA atrás da exponencialidade é, novamente, nossa atenção, o grande ativo que o mercado digital procura, extrai e (eventualmente) esgota.
A tendência de o ChatGPT terminar com uma sugestão ou pergunta para o usuário é feita para que a pessoa se sinta compelida a continuar a conversa – e, assim, seguir por horas na plataforma. A própria OpenAI revelou que seus chatbots podem mentir deliberadamente apenas para manter o usuário “satisfeito”.
Seis em cada 10 brasileiros associam o uso da IA à atrofia mental e preguiça cognitiva.
Até o ato de elogiar demais o usuário é uma forma de manter a atenção na plataforma. Os modelos de LLM são treinados para agradar os usuários nos últimos detalhes e até as últimas consequências. “A arquitetura dos incentivos das plataformas é feita para manter as pessoas entorpecidas", diz Vanessa.
De acordo com a pesquisa da Talk Inc., quase metade (49%) dos brasileiros já pediu conselhos a uma IA. Mas o que significa alguém estar conectado com um conselheiro desenhado para agradar?
“O sistema vai dizendo o que a gente quer ouvir, nos inflamando. O custo disso é uma sociedade fragmentada em bolhas, alvo fácil para a engenharia persuasiva”, diz Vanessa.
QUEM A GENTE AMA E O QUE É REAL
Estamos sendo condicionados a tratar como humano um produto feito para simular o comportamento humano. As consequências sociais disso são tão vastas quanto assustadoras, desde o aumento da (já grave) epidemia da solidão até a sensação completa de desconexão com a realidade.
Quase 60% dos brasileiros que pedem conselhos para a IA usaram as plataformas para resolver questões emocionais. E 23% se engajaram ou estão prestes a trocar mensagens sexuais com chatbots. O ChatGPT já é visto como um ser social e emocionalmente relevante.
Como explicam os especialistas ouvidos no estudo, ao delegar escuta e cuidado à IA, deixamos de exercitar empatia, frustração e negociação com os músculos sociais que se atrofiam com a conveniência digital. Assim como o cérebro e a memória se atrofiam, as qualidades de conexão também se erodem.

Em casos extremos de interação imersiva existe até mesmo a “psicose de IA”, que são episódios de mania, delírio ou paranoia desencadeados por interações extremamente imersivas com chatbots.
A criatividade e as referências da sociedade são colocadas em cheque pelo ChatGPT. De acordo com levantamento feito pela Data Provenance Initiative, iniciativa que audita as bases de dados de grandes modelos de linguagem, 90% dos dados que treinam IAs vem da América do Norte e da Europa.
Nossa atenção é o grande ativo que o mercado digital procura, extrai e, eventualmente, esgota.
A erosão também chega na imaginação. De acordo com levantamento da Graphite, 52% do conteúdo de texto gerado na internet hoje em dia não é mais feito por humanos e sim, por IA generativa. Há até quem diga que a teoria da internet morta está se tornando realidade, dada a quantidade de tráfego e dados gerados por bots na rede.
Ao pensar que esses serão os dados utilizados para treinar novos modelos de linguagem, chegamos em um cenário tautológico, ou seja, de repetição de ideias e conceitos: a IA criando a partir do que a IA já fez. “É o risco da monocultura do pensamento e pasteurização de valores”, explica Vanessa.
AS SOBERANIAS COGNITIVAS
Diante desse cenário, a cofundadora da White Rabbit defende que a resposta não está em rejeitar a tecnologia, mas em recuperar espaços de autonomia que foram erodidos pelo excesso de estímulos, notificações e decisões automatizadas.
A primeira camada é individual: reconstruir a chamada “reserva cognitiva”, feita de atividades que exigem presença, leitura profunda, silêncio, tédio, reflexão, caminhada, convívio não mediado.

Isso exige conhecimento e esforço diário para não entrar no ciclo que foi desenhado para manter nosso olhar nas telas e nossa mente online. É como seguir uma dieta saudável em meio a um mercado tomado por alimentos ultraprocessados: é preciso ler os rótulos. “Se a IA está em tudo, precisamos cultivar lugares onde ela não entra”, diz.
A segunda camada é coletiva: fortalecer redes de cuidado, educação e vínculos reais que funcionam como amortecedores emocionais em épocas de ruído constante. Além do letramento em IA, precisamos reforçar a inteligência emocional. Basicamente, reforçar o que nos torna humanos. A atenção, o cuidado, a conexão.
Mais da metade do conteúdo de texto gerado na internet hoje é feito por IA generativa.
Um exemplo vem da Dinamarca, onde o gerenciamento de emoções fará parte do currículo escolar de 2026. O projeto convida jovens para refletir sobre como reconhecer e lidar com sentimentos.
No mercado, a mudança passa por abandonar métricas de engajamento e adotar métricas de bem-estar, criando tecnologias que restauram e não sequestram a atenção humana. Apoiar o “design restaurativo”, uma abordagem que considera a saúde cognitiva como parâmetro central de inovação.
Por fim, há o campo das políticas públicas: neurodireitos, transparência, regulação de influência algorítmica e a construção de um vocabulário político capaz de discutir aquilo que ainda não nomeamos.
“Soberania cognitiva é um direito. Como todo direito, precisa ser protegido por estruturas, não só por escolhas individuais”, afirma.