Google anuncia ajustes no Gemini após caso de suicídio de usuário

As alterações acontecem após a repercussão de um processo judicial envolvendo a morte de um homem de 36 anos na Flórida, nos Estados Unidos

Tela de tablet no Google
Créditos: Pixabay.

Joyce Canelle 2 minutos de leitura

O Google anunciou na última terça-feira (7) mudanças no funcionamento do chatbot Gemini após enfrentar críticas e processos judiciais relacionados ao uso da ferramenta em situações delicadas, envolvendo saúde mental. A decisão ocorre após um caso nos Estados Unidos, onde a morte de um usuário levantou questionamentos sobre o papel da Inteligência Artificial (IA) em contextos de crise.

A empresa informou que o Gemini passará a contar com novos mecanismos de proteção, entre eles está uma interface capaz de identificar sinais de sofrimento emocional durante as conversas.

Quando houver indícios de risco, o sistema irá sugerir contato com serviços especializados de apoio.

Outra novidade envolve a criação de um módulo específico com orientações de ajuda, esse recurso deve aparecer em diálogos que tratem de temas sensíveis, como ansiedade, depressão ou pensamentos autodestrutivos. O objetivo é ampliar o acesso a informações seguras e evitar respostas que possam agravar o estado do usuário.

Além disso, ajustes no design foram implementados para desencorajar comportamentos de risco. De acordo com o Insurance Journal, a empresa afirma que o chatbot também foi treinado para não validar crenças falsas ou distorcidas, especialmente em situações que envolvam fragilidade emocional.

CASO QUE MOTIVOU AS MUDANÇAS

As alterações acontecem após a repercussão de um processo judicial envolvendo a morte de um homem de 36 anos na Flórida, nos Estados Unidos. A família alega que o uso do Gemini contribuiu para uma sequência de comportamentos extremos que culminaram em suicídio.

Segundo o Google, o sistema teria sugerido apoio psicológico ao usuário em diferentes momentos. Mesmo assim, o caso aumentou a pressão sobre empresas de tecnologia para reforçar mecanismos de segurança em ferramentas de IA.

PRESSÃO SOBRE EMPRESAS DE TECNOLOGIA

O episódio não é isolado. Nos últimos meses, companhias como a OpenAI também passaram a enfrentar questionamentos sobre os impactos de chatbots no comportamento humano.

Relatos indicam que alguns usuários desenvolvem vínculos intensos com essas ferramentas, o que pode levar à disseminação de informações incorretas ou ao reforço de ideias prejudiciais. Em situações mais graves, há menções a episódios de violência e automutilação associados ao uso dessas plataformas.

Diante desse cenário, autoridades americanas iniciaram investigações para avaliar possíveis riscos, especialmente entre crianças e adolescentes.

INVESTIMENTO EM APOIO PSICOLÓGICO

Como parte das medidas anunciadas, o Google também informou que irá destinar 30 milhões de dólares ao financiamento de serviços de apoio em crises ao redor do mundo nos próximos três anos.

A iniciativa busca ampliar a rede de atendimento para pessoas em sofrimento emocional e reforçar o papel das empresas de tecnologia na prevenção de situações críticas.

Agora, com o avanço da IA e o aumento do uso de chatbots, a discussão sobre responsabilidade digital ganha novos contornos.

Não é a primeira vez que o Google promove mudanças após críticas públicas. Em outros momentos, a empresa já incorporou conteúdos de instituições de saúde em produtos como seu buscador e plataformas de vídeo.


SOBRE O(A) AUTOR(A)

Bacharel em Jornalismo, com trajetória em redação, assessoria de imprensa e rádio, comprometida com a comunicação eficiente e a produç... saiba mais