Ciência comprova que a IA nos deixa mais burros. Mas nem tudo está perdido
Um novo estudo mostra que a IA generativa pode prejudicar as habilidades de pensamento crítico se for usada da maneira errada

Um novo estudo científico alerta que o uso da inteligência artificial pode destruir nossa capacidade de pensamento crítico. Ou seja, de um certo modo, a IA nos deixa mais burros.
A pesquisa, realizada por uma equipe da Microsoft e da Universidade Carnegie Mellon, descobriu que a dependência das ferramentas de IA sem questionamentos sobre sua qualidade reduz o esforço cognitivo aplicado ao trabalho. Em outras palavras: a IA pode ser prejudicial se a usarmos de forma errada.
“A IA pode sintetizar ideias, aprimorar o raciocínio e incentivar o engajamento crítico, nos levando a ver além do óbvio e desafiar nossas suposições”, comenta Lev Tankelevitch, pesquisador sênior da Microsoft Research e coautor do estudo.
Mas, para aproveitar esses benefícios, os usuários precisam tratar a IA como um parceiro de pensamento, e não apenas uma ferramenta para encontrar informações mais rapidamente. Grande parte disso depende de projetar uma experiência do usuário que incentive o pensamento crítico, em vez de uma dependência passiva.
Ao tornar os processos de raciocínio da IA mais transparentes e ao incentivar os usuários a verificar e refinar o conteúdo gerado pela ferramenta, uma interface bem projetada pode atuar como um parceiro de pensamento, em vez de um substituto para o julgamento humano.
DEPENDER DEMAIS DA IA NOS DEIXA MAIS BURROS
O estudo revelou que a alta confiança nas ferramentas de IA tende a reduzir o esforço cognitivo que as pessoas aplicam ao seu trabalho. Essa dependência excessiva surge de um modelo mental que parte sempre do princípio de que a IA é competente em tarefas simples.
Como admitiu um dos participantes da pesquisa, “é uma tarefa simples e eu sabia que o ChatGPT conseguiria fazer sem dificuldade, então simplesmente não pensei nisso”.
uma interface bem projetada pode atuar como um parceiro de pensamento, em vez de um substituto para o julgamento humano.
Essa mentalidade tem grandes implicações para o futuro do trabalho. Segundo Tankelevitch, a IA está mudando os trabalhadores do conhecimento de “executores de tarefas” para “gestores de tarefas”.
Em vez de realizar as tarefas manualmente, as pessoas agora supervisionam o conteúdo gerado pela IA, tomando decisões sobre sua precisão e contextualização. “Eles precisam supervisionar ativamente, orientar e refinar o trabalho gerado pela IA, em vez de apenas aceitar a primeira versão”, ressalta Tankelevitch.
O estudo destaca que, se os trabalhadores do conhecimento avaliarem conscientemente os resultados gerados pela IA, em vez de aceitá-los passivamente, podem melhorar seus processos de tomada de decisão. “A IA funciona melhor quando complementa a expertise humana, promovendo melhores decisões e resultados mais fortes”, aponta Tankelevitch.
O PARADOXO DA "DELEGAÇÃO COGNITIVA"
A confiança na IA pode levar a um problema chamado delegação cognitiva. Esse fenômeno não é novo. Os seres humanos já "terceirizam" tarefas mentais a ferramentas, desde calculadoras até dispositivos de GPS.
A delegação cognitiva não é negativa por si só. Quando feita de maneira correta, permite que os usuários se concentrem em pensamentos de ordem superior, em vez de tarefas mecânicas e repetitivas.
Os usuários precisam entender não apenas o que a IA diz, mas por que ela diz.
Mas a própria natureza da IA generativa – que produz textos complexos, códigos e análises – traz um novo nível de erro e de problemas. Muitas pessoas correm o risco de aceitar cegamente os resultados da IA sem questioná-los.
Isso acontece principalmente quando os usuários sentem que uma tarefa não é importante. “Nosso estudo sugere que, quando as pessoas veem uma tarefa como de baixo risco, elas podem não revisar os resultados de forma crítica”, diz Tankelevitch.
O PAPEL DA UX
Os desenvolvedores de IA devem ter essa ideia em mente ao projetar experiências de usuário (UX) para inteligência artificial. A UX em chats deve ser estruturada de maneira que incentive a verificação, levando o usuário a refletir sobre o raciocínio por trás do conteúdo gerado pela IA.
Redesenhar interfaces de IA para apoiar esse novo processo de "gestão de tarefas" e estimular o engajamento crítico é essencial para reduzir os riscos da delegação cognitiva.

"Modelos de raciocínio profundo já estão ajudando nesse sentido, tornando os processos da IA mais transparentes, facilitando para os usuários a revisão, o questionamento e o aprendizado a partir dos insights gerados", diz o pesquisador. "A transparência é fundamental. Os usuários precisam entender não apenas o que a IA diz, mas por que ela diz."
Você provavelmente já viu isso em uma plataforma de IA como a Perplexity. Sua interface oferece um caminho lógico claro, delineando os pensamentos e ações que a IA segue para chegar a um resultado.
Ao redesenhar interfaces de IA para incluir também explicações contextuais, índices de confiança ou perspectivas alternativas quando necessário, essas ferramentas podem evitar que o usuário adote uma atitude de confiança cega e direcioná-lo para uma avaliação ativa dos resultados.
o efeito da tecnologia sobre a inteligência humana vai depender de como escolhemos usá-la.
Outra intervenção de UX pode envolver a solicitação ativa de feedback do usuário sobre aspectos-chave do resultado gerado pela IA, incentivando-o a questionar e refinar diretamente esse resultado, em vez de aceitá-lo passivamente. A IA nos deixa mais burros se não a usarmos de forma inteligente.
O produto final dessa colaboração aberta entre IA e humanos é superior, assim como processos criativos tendem a ser melhores quando duas pessoas trabalham juntas como uma equipe, especialmente quando os pontos fortes de uma complementam os da outra.
ALGUNS VÃO FICAR MAIS BURROS, MESMO
O estudo levanta questões cruciais sobre o impacto de longo prazo da IA na cognição humana. Se os trabalhadores do conhecimento se tornarem consumidores passivos do conteúdo gerado pela IA, suas habilidades de pensamento crítico podem atrofiar. Nesse sentido, a IA nos deixa mais burros.
No entanto, se a IA for projetada e usada como uma ferramenta interativa e que provoca reflexão, ela pode melhorar a inteligência humana, em vez de degradá-la.
Tankelevitch aponta que isso não é apenas teoria. Já foi comprovado em campo. Por exemplo, há estudos que mostram que a IA pode impulsionar o aprendizado quando usada da maneira certa.

“Na Nigéria, um estudo inicial sugere que tutores de IA poderiam ajudar os alunos a alcançar dois anos de progresso de aprendizado em apenas seis semanas”, diz ele. “Outro estudo mostrou que estudantes que trabalharam com tutores apoiados por IA tinham mais chances de dominar matérias importantes.”
A chave é que tudo isso foi liderado pelos professores: educadores orientaram as sugestões e forneceram contexto, assim incentivando o pensamento crítico.
Dado o estado atual da IA generativa, o efeito da tecnologia sobre a inteligência humana não vai depender da tecnologia em si, mas de como escolhemos usá-la. A IA pode amplificar ou corroer aos poucos o pensamento crítico, dependendo de se nós interagimos com seus resultados de maneira crítica ou confiamos cegamente neles.
O futuro do trabalho assistido por IA será determinado não pela sofisticação da tecnologia, mas sim pelos seres humanos. Minha aposta, como em toda revolução tecnológica na história da civilização, é que algumas pessoas vão ficar muito mais burras e outras, muito mais inteligentes.