IA é a nova arma no jogo de gato e rato entre hackers e cibersegurança
Bots estão sendo usados por hackers para assumir contas em empresas-alvo, criar contas falsas e aproveitar os bônus de inscrição
Os crimes cibernéticos impulsionados por IA estão aumentando, de acordo com um relatório recente da empresa de cibersegurança Arkose Labs, permitindo que hackers acelerem seus ataques e tornando a fraude automatizada mais humana e mais difícil de detectar do que nunca.
Uma das melhores defesas, segundo a Arkose e outras empresas do setor, é o uso de mais IA. No entanto, apenas cerca de uma em cada cinco empresas relatou estar "muito bem preparada" para implantar sua própria IA para se defender contra ataques cibernéticos, segundo o relatório – embora 88% afirmem ter visto "um aumento significativo nos ataques de bots impulsionados por IA" nos últimos dois anos.
Bots estão sendo usados por hackers para assumir contas legítimas em empresas-alvo e criar inúmeras contas falsas, aproveitando os bônus de inscrição, de acordo com o relatório.
Alguns bots começaram a visar até sistemas de modelos de linguagem de grande porte, enviando comandos para a IA a fim de extrair dados para treinar seus próprios modelos.
Outra forma de "pirataria" é usar os modelos maiores e mais avançados para gerar os prompts solicitados a eles por seus clientes - uma espécie de "terceirização" clandestina da IA. Ou seja, vendem um serviço que, na verdade, é feito por outra IA.
Outros estudos descobriram que a IA generativa pode ser usada para automatizar ataques de phishing e engenharia social. Um relatório recente do Morgan Stanley apontou que a tecnologia pode ser usada para criar mensagens de phishing mais direcionadas e em velocidade maior do que os humanos.
Isso significa que os ataques não apenas podem ser lançados mais rapidamente, mas também ser mais eficazes. Alguns algoritmos também podem tornar a inteligência artificial mais apta a adivinhar senhas, de acordo com o relatório.
Tudo isso levou empresas de cibersegurança, como a Arkose Labs, a desenvolver novas tecnologias especificamente projetadas para combater esses bots modernos. Cerca de três em cada cinco organizações acreditam que a IA é essencial para a resposta a ameaças de segurança, de acordo com um relatório da Capgemini divulgado na semana passada.
estudos descobriram que a IA generativa pode ser usada para automatizar ataques de phishing mais direcionados.
“O uso de IA e IA generativa até agora provou ser uma faca de dois gumes”, disse Marco Pereira, chefe global de cibersegurança e serviços de infraestrutura em nuvem da Capgemini. “Embora introduza riscos sem precedentes, as organizações estão recorrendo cada vez mais à IA para uma detecção mais rápida e precisa de incidentes cibernéticos.”
Os ataques impulsionados por IA são um desafio crescente e, em muitos casos, os hackers podem ter uma vantagem inicial na utilização da tecnologia.
Segundo o CFO da Arkose Labs, Frank Teruel, as empresas estão operando em uma economia de IA onde os maus atores aproveitam a tecnologia para ataques de alto retorno sobre investimento sem se importar com questões como governança e processos de aprovação, que são observados pelas empresas de boa fé.