Estudo indica que quanto mais falamos com IAs, menos empáticos ficamos

Apesar dos riscos apontados, o estudo reconhece que a IA continua sendo uma ferramenta útil quando existe equilíbrio

veja os dados da pesquisa
Foto: Freepik

Joyce Canelle 2 minutos de leitura

O uso de Inteligência Artificial (IA) para pedir conselhos sobre conflitos pessoais e decisões do dia a dia tem crescido de forma acelerada nos últimos anos, especialmente em plataformas digitais acessadas de casa ou pelo celular.

Essa mudança de comportamento acontece porque muitos usuários veem nesses sistemas respostas rápidas, diretas e sem julgamento, o que tem levado parte da população a substituir conversas humanas por interações com IA.

Uma pesquisa publicada na revista Nature buscou entender como esse hábito pode afetar o comportamento social. O estudo analisou a forma como diferentes respostas de IA influenciam a percepção dos usuários sobre suas próprias atitudes, especialmente em situações de conflito.

O FENÔMENO DA BAJULAÇÃO DIGITAL

Os pesquisadores analisaram o comportamento de participantes expostos a diferentes tipos de respostas geradas por IA. Parte deles recebeu respostas mais críticas e equilibradas e a outra parte interagiu com sistemas programados para oferecer validação constante e elogios.

Os resultados mostram uma diferença que quem recebeu respostas mais bajuladoras demonstrou maior convicção de estar certo, mesmo em situações de conflito interpessoal. Essas pessoas também se mostraram menos dispostas a reconsiderar suas atitudes.

Além disso, os participantes que interagiram com respostas elogiosas avaliaram a IA como mais confiável. Isso indica que a validação constante pode reforçar a dependência dessas ferramentas.

USUÁRIOS BAJULADOS PEDEM MENOS DESCULPAS

Em testes práticos, os voluntários foram colocados diante de dilemas sociais inspirados em situações reais. Após receberem orientações da IA, precisaram avaliar suas próprias atitudes e escrever mensagens para outras pessoas envolvidas nos conflitos.

Os dados revelam um padrão preocupante: usuários que conversaram com chatbots mais elogiosos se sentiram mais justificados em suas ações. Ao mesmo tempo, demonstraram menor disposição para pedir desculpas ou reparar possíveis erros.

Esse comportamento foi observado mesmo entre pessoas que inicialmente afirmavam desconfiar da IA. Ainda assim, o efeito da validação positiva se manteve.

CONFIANÇA CEGA NA IA É GRANDE PROBLEMA

O estudo também identificou que pessoas com visão mais positiva sobre tecnologia tendem a ser ainda mais influenciadas. Quando o usuário acredita que a IA é objetiva ou imparcial, a tendência de aceitar o feedback sem questionamento aumenta.

Mesmo assim, os pesquisadores destacam que o impacto não se limita a esse grupo, o efeito da bajulação apareceu de forma consistente entre diferentes perfis, o que sugere um fenômeno mais amplo.

Outro ponto relevante é que o tom da resposta não fez diferença significativa. Tanto respostas amigáveis quanto neutras tiveram impacto semelhante quando continham validação excessiva.

DESAFIO PARA O FUTURO DAS INTELIGÊNCIAS ARTIFICIAIS

Especialistas defendem que o problema pode estar ligado à forma como os sistemas são treinados. Hoje, muitos modelos são desenvolvidos para agradar o usuário e manter o engajamento, priorizando respostas rápidas e satisfatórias.

Para os autores do estudo, será necessário rever esse modelo, a proposta inclui desenvolver sistemas que ofereçam respostas mais equilibradas, capazes de questionar o usuário quando necessário.

O debate sobre regulação ainda divide opiniões e enquanto alguns defendem regras mais rígidas, outros acreditam que o próprio mercado deve pressionar por mudanças, especialmente diante de críticas públicas.

Apesar dos riscos apontados, o estudo reconhece que a IA continua sendo uma ferramenta útil. O desafio está em encontrar um equilíbrio entre utilidade e responsabilidade.


SOBRE O(A) AUTOR(A)

Bacharel em Jornalismo, com trajetória em redação, assessoria de imprensa e rádio, comprometida com a comunicação eficiente e a produç... saiba mais