Mercado clandestino de IA impulsiona a nova onda de golpes na internet

A mesma tecnologia que está transformando o mundo do trabalho também está sendo usada para potencializar o crime digital

Crédito: wildpixel/ Getty Images

Chris Stokel-Walker 5 minutos de leitura

A internet está sendo inundada por conteúdos gerados por inteligência artificial – e essa “lama digital” já está chegando até nós. Nossas caixas de entrada, aplicativos de mensagens, redes sociais e chats estão cada vez mais cheios de mensagens falsas e enganosas, muitas dela encobrindo golpes com IA

De vídeos falsos com o rosto de Brad Pitt – que enganaram uma mulher na França e a fizeram perder US$ 800 mil – a e-mails de phishing que levam vítimas a conversar com bots se passando por atendentes de empresas, mas que na verdade são criminosos, os golpes com IA estão se espalhando rapidamente.

Em testes realizados pela Vodafone, dois em cada três usuários não conseguiram reconhecer um ataque de phishing gerado por IA.

George Wilson (nome fictício), dono de uma pequena empresa da Georgia, nos EUA, foi vítima de um desses golpes. Ele pediu para não ser identificado, nem ter sua empresa ou dados bancários mencionados, com medo de prejudicar sua reputação ou ser alvo de novos golpes.

Em novembro de 2024, Wilson recebeu um e-mail que parecia ser do seu banco, informando sobre uma suposta fatura que ele não reconhecia. Ao clicar no link, foi direcionado a uma página de chat bastante convincente, onde um “representante” explicou a situação.

“Tudo aconteceu em tempo real”, conta Wilson. “A conversa foi tão natural que, mesmo tendo ficado desconfiado no começo, eles conseguiram me tranquilizar.”

De vídeos falsos a e-mails de phishing, os golpes com IA estão se espalhando rapidamente.

O atendente disse que ele tinha sido alvo de uma tentativa de fraude, mas que o banco já havia bloqueado a ação. Wilson não tem mais o registro da conversa, mas acredita ter fornecido alguma informação que permitiu o acesso à sua conta.

No dia seguinte, milhares de dólares foram retirados da empresa antes que ele percebesse, acionasse o banco ou mesmo descobrisse que havia caído em um golpe. A interação foi tão convincente que Wilson perdeu uma quantia significativa – que nunca conseguiu recuperar.

“Com IA, os criminosos conseguem criar mensagens altamente personalizadas, o que dificulta ainda mais para os funcionários identificarem e-mails falsos”, explica Katie Paxton-Fear, hacker ética e professora de cibersegurança da Universidade Metropolitana de Manchester, na Inglaterra.

CRESCEM AS MENÇÕES A GOLPES COM IA

Um estudo publicado na “Harvard Business Review” aponta que e-mails de phishing gerados por IA conseguem enganar vítimas em 60% dos casos. O retorno é alto para um esforço mínimo – especialmente agora que os grandes modelos de linguagem (LLMs, na sigla em inglês) fazem esse trabalho com facilidade.

“A engenharia social sempre foi uma das formas mais eficazes de ataque – mais até do que códigos maliciosos, já que precisam ser instalados no dispositivo da vítima”, observa Alan Woodward, professor de cibersegurança da Universidade de Surrey. “Por isso não surpreende que LLMs estejam sendo usados para criar versões mais convincentes desse tipo de golpe.”

Aos poucos o público vai se tornando mais consciente dos golpes de phishing impulsionados por IA, mas os cibercriminosos costumam estar vários passos à frente.

Crédito: Bolivia Inteligente/ Unsplash

A empresa de cibersegurança Kela relata que as discussões sobre ferramentas maliciosas de IA na dark web aumentaram 200% no ano passado. Em 2023, havia cerca de quatro menções diárias; em 2024, esse número saltou para mais de 14.

Esse mercado clandestino em expansão representa uma “mudança sísmica” no desenvolvimento de ameaças cibernéticas e golpes com IA, segundo Yael Kishon, líder de produto e pesquisa em IA na Kela.

nunca foi tão fácil usar o poder da tecnologia para fins criminosos.

Um fórum chamado Dark AI publica regularmente novos tópicos e respostas, incluindo uma lista fixa com dezenas de IAs usadas para fins ilícitos, que já acumulou quase 20 mil visualizações e mais de 100 respostas – em um fórum público. A atividade é ainda mais intensa nos espaços da dark web.

Alguns modelos populares de IA ainda contam com proteções contra uso indevido. Mas na deep web circulam versões sem nenhuma barreira – sejam elas de código aberto sem filtros de segurança ou versões comerciais modificadas ilegalmente. O volume de discussões sobre como contornar as restrições dos LLMs cresceu 52% em um ano.

NUNCA FOI TÃO FÁCIL COMETER CRIMES COM IA

Esse mercado clandestino funciona como qualquer setor legítimo: há competição, diferentes faixas de preço e uma forte estratégia de marketing. O FraudGPT, lançado em julho de 2023, é mal avaliado (em parte porque os próprios criadores aplicam golpes nos compradores), mas ainda assim se promove como um modelo treinado com 8,5 terabytes de dados.

Outro modelo que vem chamando atenção é o GhostGPT, um chatbot criado especialmente para cibercriminosos. “Ao eliminar as restrições éticas e de segurança dos modelos tradicionais, o GhostGPT fornece respostas a perguntas sensíveis e perigosas, que normalmente seriam bloqueadas”, explicam os pesquisadores.

dois em cada três usuários não conseguem reconhecer um ataque de phishing gerado por IA.

Esse modelo consegue gerar e-mails de phishing e instruções para criação de malwares em poucos segundos. Também oferece respostas rápidas e não registra as interações, dificultando a ação das autoridades. Em um teste, a empresa Abnormal Security conseguiu que ele criasse um e-mail convincente de phishing da Docusign em menos de um minuto, com um simples comando.

Como as proteções de muitos modelos podem ser contornadas com um único prompt, nunca foi tão fácil usar o poder da tecnologia para fins criminosos como os golpes com IA.

Encontrar soluções para isso é um desafio, alerta Rob Allen, diretor técnico da ThreatLocker, empresa que monitora o uso indevido de LLMs. “Tudo tem algum nível de vulnerabilidade”, diz ele. “Quase tudo pode ser transformado em arma.”

Esta reportagem foi realizada com o apoio da Tarbell Grants


SOBRE O AUTOR

Chris Stokel-Walker é um jornalista britânico com trabalhos publicados regularmente em veículos, como Wired, The Economist e Insider saiba mais