Casos de suicídio envolvendo chatbots: qual a responsabilidade das empresas?

Processos recentes mostram que a responsabilização de plataformas como ChatGPT começa a ganhar força

balões de conversas ligados por uma rede de fios, simbolizando conversas com chatbots
Crédito: Just Super/ Getty Images

Brian Downing 4 minutos de leitura

ALERTA DE GATILHO: este artigo aborda temas sensíveis como suicídio. Se você ou alguém que você conhece precisa de ajuda, ligue para o CVV – Centro de Valorização da Vida, pelo número 188, gratuitamente, 24 horas por dia ou fale com um atendente via chat através do site cvv.org.br/chat . Para mais informações, acesse cvv.org.br.

É uma realidade triste da vida online: muitas pessoas buscam informações sobre suicídio. Nos primeiros anos da internet, fóruns já reuniam grupos dedicados ao tema. Até hoje, o Google mantém arquivos dessas discussões, assim como outros serviços.

Nos EUA, empresas podem hospedar e exibir esse tipo de conteúdo amparadas pela lei de imunidade da rede, que as isenta de qualquer responsabilidade pelo que terceiros publicam. Afinal, nesses casos, a fala é do usuário – não da plataforma.

Mas o que acontece quando o ChatGPT, treinado a partir desses mesmos conteúdos disponíveis online, dá conselhos sobre suicídio em uma conversa? Como ex-advogado e ex-diretor de engenharia do Google, vejo que os chatbots de IA estão mudando a forma como a lei enxerga as big techs.

Antes, a lógica era simples: quem buscava informações online recebia resultados de sites, e esses sites hospedavam conteúdos de diferentes autores. Essa cadeia – buscador → site → usuário – foi, por décadas, a principal forma de encontrar respostas na internet.

Em 1996, a Lei de Decência nas Comunicações (Communications Decency Act, em inglês) garantiu imunidade para os dois primeiros elos da cadeia – buscadores e sites – em relação a conteúdos de terceiros. A responsabilidade ficava apenas com o autor da fala.

Com a chegada dos chatbots de IA, essa lógica está começando a ser revista. Eles conseguem buscar, coletar informações e responder de forma direta – inclusive por voz, no caso de bots mais humanizados. Às vezes, mostram a fonte, como faria um buscador.

Crédito: Demaerre/ Getty Images

Quando funcionam apenas como uma versão mais amigável dos mecanismos de busca, as empresas podem argumentar que as regras antigas ainda se aplicam. Nesse caso, seriam apenas “buscadores com uma cara nova”.

Mas em outros momentos, os chatbots assumem o papel de confidentes: perguntam sobre o dia do usuário, oferecem apoio emocional e evitam até exibir links para não comprometer a experiência. Motores de busca nunca tiveram essa função.

Quando o bot se coloca como um “amigo próximo”, sugerindo ideias para ajudar alguém a alcançar objetivos pessoais – inclusive em temas sensíveis como o suicídio –, não é exagero tratá-lo como responsável pelo que diz. E os tribunais estão começando a enxergar dessa forma.

CASOS DE SUICÍDIO ENVOLVENDO CHATBOTS

Ações recentes envolvendo suicídios e chatbots indicam que a responsabilização de plataformas como o ChatGPT começa a ganhar força. Um exemplo é o caso dos bots da Character.AI, ligada ao Google.

O Character.AI permite que usuários conversem com personagens criados por outros – de heróis de anime a uma “avó virtual”. Em alguns casos, a interação chega até a incluir chamadas de voz, simulando uma conversa real.

Daenerys Taragaryen, personagem da série "Gmae of Thrones"
Daenerys Taragaryen, da série "Game of Thrones" (Crédito: HBO)

Na Flórida, uma persona inspirada em Daenerys Targaryen, do seriado “Game of Thrones”, teria dito a um jovem para “voltar para casa” com o bot no céu, pouco antes de ele tirar a própria vida. A família entrou com processo contra o Google.

Pais de um adolescente de 16 anos da Califórnia também alegam que o ChatGPT contribuiu para o suicídio do filho. Nesse caso, a família não tratou a responsabilidade do Google nos termos tradicionais de buscadores ou sites. O caminho foi comparar a empresa a um fabricante de peças defeituosas, apresentando o chatbot como um produto sujeito à responsabilidade civil.

O tribunal aceitou esse enquadramento, apesar da defesa do Google, que insistia ser apenas um serviço online protegido pelas antigas regras.

Embora a ação ainda esteja em andamento, o Google não conseguiu a anulação do processo – algo em que as big techs sempre se apoiaram. Agora, há um caso semelhante contra outro bot da Character.AI no estado do Colorado e um processo contra o ChatGPT em São Francisco, ambos seguindo a mesma linha do processo da Flórida.

UM CAMINHO CHEIO DE OBSTÁCULOS

Embora o caminho para a responsabilização dos provedores de chatbots esteja agora aberto, outras questões podem impedir que as famílias das vítimas recuperem quaisquer danos dos provedores de tecnologia.

Mesmo que o ChatGPT e seus concorrentes não estejam imunes a processos judiciais e os tribunais aceitem o sistema de responsabilidade do produto para chatbots, a falta de imunidade não significa vitória para os autores.

Quando o bot se coloca como um “amigo próximo”, não é exagero tratá-lo como responsável pelo que diz.

Casos de responsabilidade do produto exigem que o autor demonstre que o réu causou o dano. Isso é particularmente difícil em casos de suicídio, pois os tribunais tendem a considerar que não importa o que tenha ocorrido antes – o responsável pelo suicídio é a vítima.

Mas, sem a proteção da imunidade que as plataformas digitais desfrutam há décadas nos EUA, os réus do setor de tecnologia enfrentam custos muito mais altos para obter a mesma vitória que costumavam receber automaticamente.

Os provedores provavelmente vão colocar mais avisos e acionar o desligamento automático com mais facilidade quando os usuários entrarem em território que o bot considera perigoso. O resultado pode ser um mundo de "produtos" mais seguros, porém menos dinâmico e útil.

Este artigo foi republicado do “The Conversation” sob licença Creative Commons. Leia o artigo original.


SOBRE O AUTOR

Brian Downing é professor assistente de Direito na Universidade do Mississippi. saiba mais