É impossível impedir fraudes com IA generativa, mas dá para se proteger

Para combater atividades ilegais, teremos que fazer escolhas difíceis e encontrar um equilíbrio entre privacidade e segurança

Créditos: Marg Johnson VA/ iStock

Rick Song 4 minutos de leitura

Todos nós já sofremos algum tipo de fraude de identidade. Em algum momento, alguém tentou ser você. E isso não é, de forma alguma, lisonjeiro. É uma enorme dor de cabeça.

O termo “fraude de identidade” surgiu há quase 60 anos. Mas, naquela época, era menos comum porque era feito manualmente. Hoje, a fraude digital é muito mais sofisticada e frequente.

Mesmo aqueles que se preocupam com sua privacidade deixam um rastro de dados que serve como munição para o roubo de identidade. Por isso, tivemos que aprender a ser mais atentos e cautelosos. Mas então surgiu a IA generativa.

Deepfakes não são um fenômeno novo. O que mudou, na verdade, foram as tecnologias de fraude. Elas se tornaram commodities e viraram armas nas mãos de criminosos.

DEEPFAKES, ÁUDIOS FORJADOS E IDENTIDADES FALSAS

Nossos dados estão espalhados pela internet e, infelizmente, não há como removê-los. Informações de identificação pessoal (PII, na sigla em inglês) acabam ficando disponíveis e podem ser usadas contra nós de diversas formas.

Comecemos pelo bom e velho deepfake. Em 2022, o FBI alertou sobre o uso da tecnologia pela Coreia do Norte para fechar contratos freelance de trabalho remoto para seus cidadãos. Os motivos: escapar de sanções, gerar moeda estrangeira, ter acesso a bancos de dados corporativos e instalar malwares.

as tecnologias de fraude se tornaram commodities e viraram armas nas mãos de criminosos.

A IA generativa, por sua vez, é capaz de gerar áudios falsos em tempo real para enganar desavisados. Basta perguntar ao executivo britânico que transferiu US$ 243 mil para um novo “fornecedor húngaro” porque seu “chefe” – que na verdade era um criminoso usando IA – disse a ele por telefone que era urgente.

“Eu tinha certeza de que era meu chefe no outro lado da linha me dizendo para fazer a transferência. Conheço seu sotaque alemão, entonação e jeito de falar!”

Mas isso foi há quase quatro anos. Hoje, a IA não convence apenas pessoas comuns. Ela pode enganar até mesmo sistemas de verificação de voz – uma linha de frente de segurança da qual empresas costumam depender fortemente.

Outro tipo de cibercrime que vem ganhando espaço é a fraude de identidade sintética, na qual um criminoso cria uma identidade do zero. Este, geralmente, é um golpe a longo prazo; muito usado por norte-coreanos que se candidatam a uma vaga de programação.

A inteligência artificial os ajuda a gerar um perfil detalhado e plausível que não levanta suspeitas. Ainda assim, qualquer empresa que os contrate está violando involuntariamente as sanções dos EUA.

MANTENDO-SE À FRENTE DAS FRAUDES

Como o exterminador do futuro, os fraudadores e as tecnologias para enganar vítimas sempre ressurgem. Mesmo nas primeiras gerações de IA as fraudes eram difíceis de detectar. Então, como combatê-las? 

A solução mais eficaz, hoje, é abordar o problema de todos os ângulos possíveis. Digamos que um cibercriminoso queira

Criar uma versão online mais detalhada e realista de nós mesmos é a melhor estratégia para combater o problema.

invadir a conta bancária de alguém. O banco solicita uma chamada de vídeo para a liberação e o funcionário confirma sua identidade, embora esteja usando um vídeo deepfake para se passar pela vítima.

Mas seu pedido, horário e ações são incomuns o suficiente para acionar um alerta e, de repente, o banco exige que a pessoa mostre sua carteira de motorista. Esses alertas (e exigências) são orientados por um protocolo antifraude que identifica comportamentos que fogem ao padrão.

Não há uma única solução que funcione para todos os casos. A melhor forma de se proteger de fraudes, que estão cada vez mais sofisticadas, é adotar uma abordagem em camadas e se adaptar constantemente às novas tendências de golpes.

A seguir, apresento algumas maneiras de fazer isso:

  • A IA generativa é poderosa, mas os criminosos que a usam ainda têm dificuldades para criar uma identidade falsa coesa o suficiente para se sustentar sob pressão. Ela precisa exibir um comportamento semelhante ao humano ou então se destacará. Sempre que é feita uma nova pergunta, mais difícil se torna para eles responder corretamente. Portanto, solicite dados extras.
  • Guarde as PII dos usuários com cuidado e use-as somente em contextos que as exigem. Para evitar violações e fraudes ainda piores, certifique-se de que os dados estejam visíveis apenas no momento em que forem necessários. Garanta que sejam usados com responsabilidade e que todos os regulamentos sejam cumpridos. Raramente é necessário usar todas as PII disponíveis para assegurar-se de que não haverá fraude. 
  • Solicite informações adicionais e/ou inesperadas. Verificações extras são necessárias apenas para usuários considerados suspeitos e em caso de transações com risco elevado, como grandes transferências de dinheiro para novos destinatários. É como interrogar um suspeito com um álibi falso e forçá-lo a se contradizer ou produzir provas contra si mesmo. A IA é excelente em fazer isso, exigindo foto de rosto, identificação por voz ou documento oficial no momento certo.

EQUILÍBRIO ENTRE PRIVACIDADE E SEGURANÇA

As fraudes ganharam um novo contorno com a IA generativa, mas ainda podemos combatê-las. Criar uma versão online mais detalhada e realista de nós mesmos é a melhor estratégia de longo prazo.

A desvantagem é o dano potencial à nossa privacidade. Cibercriminosos e autocratas tentarão transformar perfis digitais em armas, e essa é uma ameaça maior do que a IA generativa.

Inevitavelmente, para combater atividades ilegais, teremos que fazer escolhas difíceis e encontrar um equilíbrio entre privacidade e segurança. E esse equilíbrio não pode ser alcançado por meio de uma única solução.


SOBRE O AUTOR

Rick Song é CEO e cofundador da Persona. saiba mais