Quanto custa um deepfake? Veja valores e riscos dessa tecnologia

A tecnologia baseada em IA é capaz de substituir rostos, expressões e vozes em vídeos, criando conteúdos falsos com aparência real

Deefakes Rosto humano e digital
Golpes com deepfake crescem e impulsionam debate sobre regulação da IA. Crédito: Imagem gerada com auxílio de Inteligência Artificial via ChatGPT

Gabriel Nassif 5 minutos de leitura

A tecnologia dos deepfakes deixou de ser curiosidade experimental e virou uma ferramenta acessível e potencialmente perigosa. Segundo a empresa de cibersegurança Kaspersky, é possível encomendar na dark web vídeos e áudios falsos gerados com auxílio de inteligência artificial por cerca de R$ 160 na dark web.

Leia mais: Deepfakes e áudios falsos: veja como proteger seus dados na era da IA

O que é um deep fake?

O termo deepfake vem da junção das expressões “deep learning” (aprendizado profundo) e “fake” (falso). A tecnologia baseada em IA é capaz de substituir rostos, expressões e vozes em vídeos, criando conteúdos falsos com aparência real.

Quando aplicada ao áudio, a técnica é chamada de deep voice, e permite clonar vozes humanas de forma extremamente convincente - inclusive reproduzindo emoções e pausas naturais.

A combinação dessas técnicas tem permitido que criminosos criem vídeos e mensagens de voz falsas com aparência e som quase indistinguíveis de conteúdos reais.

Esse avanço levanta preocupações entre especialistas, já que a manipulação de imagens e sons pode servir tanto para entretenimento quanto para propósitos maliciosos.

O mercado perigoso dos “deepfakes-as-a-service”

De acordo com a Kaspersky, fóruns da dark web oferecem pacotes completos de deepfake e deepvoice sob demanda. Os valores variam entre US$ 50 por vídeo e US$ 30 por mensagem de voz, enquanto serviços semelhantes custavam de US$ 300 a US$ 20 mil por minuto em 2023.

"Não estamos apenas observando anúncios oferecendo deepfake como serviço, mas também uma clara demanda por essas ferramentas", relatou o analista sênior de segurança da Kaspersky, Lisandro Ubiedo.

A redução drástica dos preços em até 400 vezes mais baratos ampliou o acesso a essa tecnologia e, consequentemente, o número de crimes virtuais que a utilizam.

Segundo o levantamento da empresa, esses anúncios incluem desde a troca de rostos em tempo real em videochamadas até falsificação de transmissões de câmeras e processos de verificação facial.

“Cibercriminosos mal-intencionados estão experimentando ativamente a IA e incorporando-a em suas operações”, afirmou Ubiedo. 

A Kaspersky alerta que muitos desses serviços também podem ser armadilhas criadas para enganar compradores, o que mostra o nível de risco e desconfiança até mesmo dentro desse mercado clandestino.

Leia mais: Quem vai pedir desculpas pelos danos dos deepfakes?

Golpes e usos criminosos

O Relatório de Pesquisa Antifraude 2025, elaborado pela Bitget, revelou que em 2024 golpes baseados em deepfakes movimentaram cerca de US$ 4,6 bilhões, especialmente em golpes financeiros e esquemas de criptomoedas.

No Brasil, casos semelhantes já foram identificados. Uma operação policial no Rio Grande do Sul desmantelou uma quadrilha que utilizava vídeos falsos de celebridades como Gisele Bündchen, Angélica e Juliette para aplicar golpes e movimentar mais de R$ 20 milhões.

Além das fraudes financeiras, existe a possibilidade do uso de deepfakes em campanhas de desinformação política, difamação, chantagem e pornografia não consensual.

Especialistas alertam que essas práticas ampliam os danos psicológicos às vítimas e desafiam a capacidade das autoridades em identificar os autores dos crimes.

“Embora essas tecnologias não introduzam ciberameaças fundamentalmente novas, elas podem aprimorar significativamente as capacidades dos cibercriminosos”, comentou Ubiedo.

Esse vídeo pode te interessar também:

O que diz a lei brasileira?

Embora o Brasil ainda não tenha uma lei específica que trate de todos os tipos de deepfake, algumas normas já abrangem o uso criminoso da tecnologia.

Crimes como calúnia, difamação, estelionato e falsidade ideológica podem ser aplicados quando o conteúdo falso é utilizado para enganar, humilhar ou obter vantagem ilícita.

Em abril de 2025, foi sancionada a Lei Nº 370/2024, que aumenta a pena para casos de violência psicológica contra mulheres cometidos com uso de inteligência artificial, especialmente em conteúdos de natureza sexual.

Além disso, o Projeto de Lei 3821/2024, em tramitação no Senado, pretende criminalizar a produção e divulgação de vídeos íntimos falsos — conhecidos como deep nudes — com penas que podem variar de dois a seis anos de prisão.

No Congresso, outros projetos buscam restringir o uso de IA em campanhas eleitorais e publicidade, exigindo aviso explícito quando o conteúdo for manipulado. As propostas refletem a crescente preocupação com os impactos sociais e políticos dessa tecnologia.

Como se proteger?

Segundo o analista sênior de segurança Ubiedo, identificar um deepfake nem sempre é simples, mas há sinais que podem ajudar. Analisar movimentos bruscos, iluminação irregular, piscadas artificiais ou ausência delas e tons de pele inconsistentes são alguns sinais.

No caso de áudios, vozes com entonações estranhas, pausas mecânicas ou respiração artificial são indícios comuns de manipulação.

"Uma das maneiras mais promissoras de enfrentar esse desafio é aproveitar a IA para melhorar a produtividade dos profissionais de cibersegurança e a eficácia das medidas defensivas", aconselhou o analista.

A empresa recomenda investir em medidas de cibersegurança, como treinamentos para equipes, softwares de detecção e verificação de origem de mídias.

Além disso, ferramentas de checagem e alfabetização digital são consideradas essenciais para reduzir o impacto da desinformação causada por conteúdos falsificados.

Um desafio além da tecnologia

Os deepfakes representam um dos maiores desafios da era digital. “Algumas plataformas apresentam recursos mais sofisticados: por exemplo, modelos de linguagem maliciosa criados do zero, independentes de modelos públicos, que são executados localmente” afirmou Ubiedo.

Ao mesmo tempo, em que podem ser usados para fins criativos e educacionais, o uso malicioso de deepfakes coloca em risco a privacidade, a reputação e até a estabilidade política de indivíduos e instituições.

“Nesse contexto, os especialistas em cibersegurança devem trabalhar arduamente para combater essas ameaças”, concluiu o analista.

Leia mais: Precisamos “domar” os apps de vídeo com IA antes que seja tarde demais


SOBRE O AUTOR

Jornalista, com experiência em produção de matérias e conteúdos multiplataforma. Atuou em veículos independentes e comunitários, além ... saiba mais