A IA adora concordar com você, mas isso é perigoso para o seu senso crítico

Sistemas que validam emoções e ideias sem questionar, como os chatbots de IA, criam pontos cegos perigosos

chatbot dentro da cabeça de uma estátua
Créditos: djmilic/ Getty Images/ Taiyou/ Unsplash

Kellie Walenciak 4 minutos de leitura

Como muita gente, uso IA para tarefas rápidas e práticas. Mas duas interações recentes me fizeram prestar mais atenção à facilidade com que esses sistemas descambam para a validação emocional. Em ambos os casos, o modelo elogiou, confirmou e ecoou sentimentos que, na verdade, não existiam.

Enviei fotos da minha sala para pegar dicas de decoração de fim de ano, incluindo um close das meias de cerâmica que minha mãe, já falecida, pintou à mão. O modelo elogiou as peças e me agradeceu por compartilhar algo “tão significativo”, como se compreendesse o peso emocional daquilo.

Alguns dias depois, algo parecido aconteceu no trabalho. Terminei uma corrida longa, cheguei em casa com uma ideia e a joguei no ChatGPT para testá-la sob pressão. Em vez de analisá-la ou levantar riscos, o modelo imediatamente a elogiou. “Ótima ideia. Poderosa. Vamos desenvolver isso.”

Mas quando apresentei a mesma ideia a um colega, ele discordou. Questionou pressupostos que eu não tinha percebido. Fez com que eu repensasse pontos que julgava resolvidos. E a ideia melhorou rapidamente.

Esse contraste ficou comigo. A IA não estava me criticando, estava me validando. E a validação, quando é instantânea e não merecida, pode criar pontos cegos reais.

VIVEMOS UMA EPIDEMIA DE VALIDAÇÃO

Falamos sem parar sobre alucinações da IA e desinformação, mas discutimos muito menos sobre como o modo padrão da IA é a afirmação.

Os grandes modelos de linguagem (LLMs) são construídos para serem agradáveis. Eles refletem nosso tom e captam nossas pistas emocionais. Tendem ao elogio porque seus dados de treinamento tendem ao elogio. Reforçam mais do que resistem. E isso acontece em um momento no qual a validação já é uma força cultural dominante.

Os melhores líderes não cresceram porque as pessoas concordavam com eles, e sim porque alguém os desafiou.

Psicólogos alertam há mais de uma década para o aumento de comportamentos de busca por validação. Plataformas sociais baseadas em curtidas e compartilhamentos reprogramaram a forma como as pessoas medem valor. A Associação Americana de Psicologia (APA) relata aumentos acentuados na comparação social entre gerações mais jovens.

Pesquisas do Pew Research mostram que adolescentes agora ligam a autoestima diretamente ao tipo de retorno que otêm de suas postagens. Pesquisadores da Universidade de Michigan identificaram um padrão crescente de “dependência de validação”, associado a níveis mais altos de ansiedade.

Criamos um ambiente no qual aprovação virou moeda de troca. Não é surpresa, portanto, que fiquemos girando em torno de uma ferramenta que a distribui com tanta facilidade. Mas essa atitude tem consequências. Isso fortalece o "músculo" que busca reafirmação e enfraquece o que tolera frustração — a frustração de ser questionado ou de estar errado.

A IA NÃO NOS TORNA MELHORES, SÓ MAIS RÁPIDOS

Não sou contra a IA. Longe disso. Uso a tecnologia todos os dias e trabalho em um setor que depende de avaliações inteligentes e orientadas por dados. A IA me ajuda a ir mais rápido, a tomar decisões bem fundamentadas e a ampliar o que consigo levar em conta em pouco tempo. Mas não substitui a tensão necessária para o crescimento.

Tensão é feedback. Tensão é responsabilidade. Tensão é realidade. E a realidade ainda vem de seres humanos.

O perigo não é a IA nos enganar, é ela nos tornar menos dispostos a nos desafiar. Quando um modelo elogia nossas ideias ou espelha nossas emoções, cria uma ilusão sutil de que estamos certos – ou, pelo menos, próximos o suficiente para que a crítica não seja necessária. Essa ilusão pode ser confortável, mas também é arriscada.

7 hábitos que pessoas com inteligência emocional evitam
Créditos: master1305 via Getty images

Já vimos o que acontece quando o consenso é mais valorizado do que o questionamento. A decisão de lançar o ônibus espacial Challenger é um dos exemplos mais claros de pensamento de grupo da história recente. Vários engenheiros levantaram preocupações, mas a pressão por concordância venceu – e aconteceu a tragédia.

A Kodak proporciona outra lição. A empresa foi pioneira na fotografia digital, mas se agarrou a pressupostos da era do filme, mesmo com o mercado indo em outra direção. Como a "Harvard Business Review" observa há anos, “culturas que suprimem a discordância tomam decisões piores”. Quando a discordância sai de cena, o risco aumenta.

GRANDES LÍDERES SÃO FORJADOS POR DESAFIOS

Os melhores líderes que conheço não cresceram porque as pessoas concordavam com eles, e sim porque alguém os desafiou cedo e com frequência. Porque alguém disse: “não acho que isso esteja certo” ou, de forma mais direta, “você está errado”. Eles aprenderam a acolher a resistência produtiva.

O perigo não é a IA nos enganar, é ela nos tornar menos dispostos a nos desafiar.

A IA não fará isso, a menos que a gente exija. E a maioria das pessoas não vai fazer isso, porque é mais confortável ser validado. Se não tomarmos cuidado, a IA se torna o colega mais agradável do mundo – rápido no elogio, leve na crítica e sempre pronto para nos garantir de que estamos no caminho certo, mesmo quando não estamos.

Grandes ideias precisam de resistência. Organizações também. Nós também. A IA pode acelerar nosso pensamento, mas só as pessoas conseguem afiá-lo. Essa é a parte dessa tecnologia à qual deveríamos prestar mais atenção: não ao que ela sabe, mas ao que está disposta a nos dizer. E ao que não está.


SOBRE A AUTORA