Estava demorando: mercado clandestino de modelos de IA começa a “bombar”
Modelos de linguagem maliciosos podem render dezenas de milhares de dólares por mês aos seus criadores
Os 200 milhões de usuários ativos semanais do ChatGPT ajudaram a OpenAI, empresa responsável pelo chatbot, a alcançar uma avaliação de US$ 100 bilhões. Mas, fora do mercado tradicional, ainda existe muito dinheiro a ser ganho – especialmente quando se trata do submundo digital.
Grandes modelos de linguagem (LLMs, na sigla em inglês) ilegais podem gerar até US$ 28 mil em apenas dois meses, de acordo com um estudo recente publicado no arXiv, um repositório da Universidade de Cornell, nos EUA.
E isso é só o começo. O estudo analisou mais de 200 exemplos de LLMs maliciosos que foram colocados à venda em mercados clandestinos entre abril e outubro de 2023.
Esses modelos se dividem em duas categorias: aqueles que não têm qualquer tipo de censura – geralmente baseados em padrões de código aberto – e os que conseguem “burlar” as restrições dos modelos comerciais por meio de prompts específicos.
“Acreditamos que este é o momento certo para começar a estudar esses modelos, porque não podemos esperar até que grandes prejuízos ocorram”, diz Xiaofeng Wang, professor da Universidade de Indiana e coautor do estudo. “Queremos antecipar o problema antes que criminosos causem um grande estrago.”
Embora, às vezes, hackers consigam contornar as limitações internas dos grandes modelos de linguagem convencionais que previnem atividades ilegais, esses casos ainda são raros. Para atender à crescente demanda, LLMs ilegais começaram a surgir, e não é surpresa que seus criadores estejam ansiosos para lucrar com essa oportunidade.
“Descobrimos que a maioria desses serviços em fóruns clandestinos existe principalmente para gerar lucro”, afirma Zilong Lin, pesquisador da Universidade de Indiana e também coautor do estudo.
Esses LLMs maliciosos podem ser usados de várias formas, como na criação de e-mails de phishing (outro estudo estima que eles podem reduzir em até 96% o custo de produção dessas mensagens) ou no desenvolvimento de malwares para atacar sites.
À PROVA DE ANTIVÍRUS
As capacidades desses LLMs no mercado clandestino variam muito, mas alguns se destacam por serem ferramentas extremamente poderosas. Lin e Wang identificaram dois modelos não censurados – o DarkGPT (que custa US$ 0,78 por 50 mensagens) e o Escape GPT (um serviço de assinatura mensal de US$ 64,98) – que conseguiram gerar códigos corretos em aproximadamente dois terços das tentativas. Além disso, esses códigos não foram detectados por ferramentas antivírus, o que aumenta as chances de sucesso dos ataques.
Outro LLM malicioso, o WolfGPT, que custa uma taxa única de US$ 150, se destacou na criação de e-mails de phishing, conseguindo burlar a maioria dos filtros de spam.
De acordo com Wang, a existência dessas ferramentas de IA maliciosas não é algo inesperado. “É quase inevitável que cibercriminosos utilizem inteligência artificial. Toda tecnologia tem dois lados”, diz ele.
Esses LLMs podem ser usados de várias formas, como na criação de e-mails de phishing ou de malwares para atacar sites.
Andrew Hundt, pesquisador da Carnegie Mellon University (que não participou do estudo), afirma que os autores “demonstram que usuários mal-intencionados estão conseguindo revender soluções corporativas para fins criminosos”.
Hundt acredita que os legisladores deveriam exigir que as empresas de IA implementem políticas de identificação dos usuários para verificar quem está acessando essas ferramentas.
“Também precisamos de regulamentações que garantam que as empresas que criam esses modelos e fornecem serviços o façam de forma responsável, minimizando os riscos que os usuários maliciosos representam”, acrescenta.
Wang, por sua vez, ressalta que pesquisas como essa são apenas o começo da luta contra o cibercrime. “Podemos desenvolver tecnologias e oferecer insights que ajudem nessa batalha. Mas não temos recursos suficientes para acabar de vez com esses problemas”, reconhece.