Que tal se os chatbots focassem menos em conversar e mais em argumentar?

Novo estudo sugere que chatbots, como o ChatGPT, deveriam desafiar mais os usuários

Créditos: Google DeepMind/ Unsplash/ Rawpixel

Chris Stokel-Walker 2 minutos de leitura

Não demora muito para que as conversas com os chatbots se tornem entediantes. Não há perguntas instigantes que estimulem respostas mais interessantes e, mesmo quando forçamos um diálogo diferente, tudo o que recebemos de volta são frases genéricas projetadas para suavizar a interação. 

Quase um ano e meio após a IA generativa ter se tornado o centro das atenções, os pesquisadores estão começando a questionar se esse formato monótono é a melhor abordagem.

“Há algo de estranho no tom e nos valores que estão sendo incorporados nos grandes modelos de linguagem”, afirma Alice Cai, pesquisadora da Universidade de Harvard. “Tudo soa muito paternalista”.

Além disso, ela observa que esses modelos são excessivamente americanizados e interagem com base em normas de concordância e cordialidade exageradamente amigáveis, que não são compartilhadas por todo o mundo.

Cai cresceu em um ambiente em que críticas eram comuns – e saudáveis, segundo ela. “Eram usadas como uma forma de estimular o crescimento e a honestidade era algo realmente importante na dinâmica da minha família.”

a equipe de pesquisa ficou surpresa com a resposta positiva que recebeu à sugestão de tornar as IAs um pouco menos gentis.

Isso levou a pesquisadora e seus colegas de Harvard e da Universidade de Montreal a investigar se um design de inteligência artificial mais desafiador poderia atender melhor aos usuários.

Em seu estudo, publicado no repositório arXiv, os acadêmicos realizaram um workshop no qual os participantes imaginaram como seria a personificação humana da atual geração de chatbots de IA generativa.

A resposta foi um funcionário do setor de atendimento ao cliente, branco, de classe média, com um sorriso forçado e uma atitude inabalável – claramente, nem sempre a melhor abordagem.

Crédito: Freepik

“Nós, humanos, não valorizamos apenas a cordialidade”, destaca Ian Arawjo, professor assistente de interação humano-computador na Universidade de Montreal e um dos coautores do estudo. Na verdade, segundo ele, “em muitos aspectos, o antagonismo é benéfico”.

Os pesquisadores sugerem que uma IA programada para ser um pouco "do contra", em vez de submissa e exageradamente conciliatória, poderia ajudar os usuários a questionar suas suposições, desenvolver resiliência e estabelecer limites mais saudáveis quanto à maneira como se relacionam com outras pessoas.

Há algo de estranho no tom e nos valores que estão sendo incorporados nos grandes modelos de linguagem.

Uma possível aplicação para uma IA “combativa”, proposta pelos pesquisadores, seria livrar pessoas de um hábito ruim. “Desenvolvemos um sistema capaz de reconhecer quando o usuário faz algo que poderia ser considerado um mau hábito. Ele utiliza uma abordagem de confronto, semelhante ao que costumamos ver nos esportes ou, às vezes, na autoajuda”, explica Cai.

Arawjo destaca que o uso de inteligências artificiais como esta exigiria supervisão e regulamentação muito cuidadosas, especialmente se fossem aplicadas em áreas sensíveis. Ainda assim, a equipe de pesquisa ficou surpresa com a resposta positiva que recebeu à sugestão de tornar as IAs um pouco menos gentis.

“Acho que chegou a hora de testar esse tipo de ideia e explorar esses sistemas”, defende Arawjo. “Gostaria de ver mais investigações empíricas para entender como fazer isso na prática, em que circunstâncias isso poderia ser benéfico ou não e quais são as implicações.”


SOBRE O AUTOR

Chris Stokel-Walker é um jornalista britânico com trabalhos publicados regularmente em veículos, como Wired, The Economist e Insider saiba mais