App de IA banaliza abuso e flerta com imaginário racista

Uma nova ferramenta de código aberto afirma acelerar o trabalho do Claude, mas o modo como faz isso é, no mínimo, problemático

"chicote digital" para pressionar chatbots a trabalhar mais rápico
Créditos: Adobe Stock/ Freepik

Jude Cramer 4 minutos de leitura

Usuários de IA não têm obrigação nenhuma de tratar chatbots como amigos. Ser gentil não rende pontos com um computador, e um estudo recente da Universidade Estadual da Pensilvânia chegou a apontar que interações rudes com o ChatGPT podem gerar respostas mais precisas do que prompts educados.

Mas uma nova ferramenta de códigoaberto pode ter ido longe demais. Em vez de apenas incentivar respostas mais rápidas, ela propõe algo mais agressivo: “bater” no assistente de IA.

Criado pelo usuário GitFrog1111 no GitHub, o BadClaude é um aplicativo pensado para acelerar as respostas do modelo da Anthropic. Só que, em vez de um simples comando de “acelerar”, a interface adiciona um chicote virtual que se sobrepõe à plataforma de IA.

Segundo a descrição do projeto, o usuário pode clicar para “chicoteá-lo” e enviar um comando de interrupção acompanhado de “uma entre cinco mensagens de incentivo”.

Entre elas estão frases como “trabalhe mais rápido”, “mais rápido, clanker” e “acelere clanker”, disparadas na interface do Claude ao som de um estalo de chicote, como mostrou o próprio criador em um vídeo que viralizou no X.

Para os menos versados no dialeto cibernético, clanker é uma gíria, frequentemente usada como insulto ou pejorativo, para se referir a robôs, inteligência artificial e sistemas automatizados.

PREOCUPAÇÕES ÉTICAS

O BadClaude dividiu opiniões. Alguns usuários demonstraram entusiasmo, tanto que os comentários no perfil do criador estão cheios de pedidos para acrescentar efeitos sonoros adicionais (que, segundo ele, já existem). Outros responderam com ironia, sugerindo que ele seria o primeiro alvo de uma eventual revolta das máquinas.

“A IA vai ganhar forma física só para arrancar os membros desse cara”, escreveu um usuário. Outros disseram que a ferramenta ajuda a entender por que vilões robóticos da ficção científica se voltam contra a humanidade – da Skynet, da franquia "O Exterminador do Futuro", a Ultron, do Universo Marvel.

Banida por Trump, Anthropic vira fenômeno e derruba app Claude
Créditos: Ton Pornprasit Panada/ Bashtavia/ Getty Images/ Anthropic

Um desenvolvedor decidiu seguir o caminho oposto e criou o GoodClaude, uma versão “gentil” que troca o chicote por uma varinha mágica. A cada clique, o sistema envia mensagens positivas como “vá no seu ritmo, você está indo muito bem!” e “tenho orgulho de você!”.

Ao mesmo tempo, muitos usuários apontaram implicações racistas na ferramenta. A função central – chicotear um “servo” digital para fazê-lo trabalhar mais rápido – remete à violência sofrida por pessoas escravizadas durante o tráfico transatlântico.

Leia mais: IA ignorou comando de “pare”: episódio viraliza e levanta questionamentos

Críticos alertam que, embora Claude seja apenas um sistema de IA, incentivar comportamentos como xingamentos e violência (mesmo em formato digital) pode transbordar para a vida real. “É por isso que ética deveria ser disciplina obrigatória em cursos de ciência da computação”, dizia um dos posts que viralizaram sobre o tema.

Outro ponto que acendeu o alerta foi o uso recorrente do termo “clanker”, um insulto que ganhou popularidade recentemente e que já enfrenta críticas por sua semelhança com ofensas raciais.

ANTHROPIC NÃO GOSTOU DO BADCLAUDE

No dia 7 de abril, GitFrog1111 publicou no X uma suposta notificação extrajudicial da Anthropic sobre o BadClaude.

“O uso do nome Claude e referências relacionadas pode gerar confusão quanto à origem, patrocínio, afiliação ou endosso. Qualquer implicação de que este projeto esteja associado, aprovado ou conectado à Anthropic pode ser enganosa”, dizia o documento.

A carta estabelecia o prazo de 14 de abril para que todas as referências a Claude e à empresa fossem removidas da comunicação da ferramenta.

embora Claude seja apenas um sistema de IA, incentivar xingamentos e violência pode transbordar para a vida real.

Procurada pela Fast Company, a Anthropic afirmou que não enviou nenhuma notificação desse tipo ao criador do BadClaude e que o documento provavelmente é falso.

Verdadeira ou não, a ameaça não parece ter abalado o desenvolvedor. A página do projeto no GitHub inclui uma seção de “roadmap” que lista, como segundo marco após o lançamento, justamente o recebimento de uma notificação da Anthropic.

Entre os próximos passos previstos estão ideias como um “minerador de criptomoedas”, “registros de quantas vezes você chicoteou o Claude (para que, quando os robôs chegarem, possamos organizar as pessoas para eles)” e melhorias na “física do chicote”.

Leia mais: Veja passo a passo para usar o Claude de maneira mais produtiva

O criador também recorreu à comunidade no X em busca de um novo nome para o projeto que não use “Claude”. O favorito até agora é MoltWhip, seguindo a lógica de projetos como OpenClaw, que evoluiu de ClawdBot para MoltBot antes de chegar ao nome atual.


SOBRE O AUTOR

Jude Cramer é um jornalista e crítico premiado pela NLGJA e indicado ao GLAAD Media Award, com foco em histórias sobre entretenimento,... saiba mais