AGU notifica Google para retirar IA que cria nudes falsos das buscas

Órgão deu prazo de cinco dias para ferramenta retirar dos resultados de buscas os sites que produzem deepfakes pornográficos

Tela de smartphone exibindo o logotipo do Google em versão pixelada, com um cursor e símbolo de bloqueio sobreposto. Ao fundo, aparece a interface de busca, sugerindo restrição ou censura de imagens.
Farhat Altaf via Unsplash / Bastian Riccardi via Pexels

Camila de Lira 3 minutos de leitura

A Advocacia Geral da União (AGU) solicitou ao Google a retirada de ferramentas e sites que usam inteligência artificial (IA) para produzir imagens sexualizadas falsas de pessoas reais. O cumprimento das medidas deverá ser feito em cinco dias.

A ação da AGU é baseada na pesquisa “Desindexação de Sites de Nudify pelo Google”, feita pelo Centro Tecnologia e Sociedade da FGV do Rio de Janeiro e liderada pela professora e pesquisadora Yasmin Curzi.  A pesquisa da FGV-Rio alerta que as principais vítimas de “nudificação” sem consentimento são mulheres, crianças e adolescentes.

Leia mais: Timothée Chalamet errou – e não só sobre a ópera

Os “deepnudes” ou “deepfakes pornográficos” tiveram alta de popularidade na web nos últimos meses, principalmente puxados pela facilidade oferecida por ferramentas como a da IA do X (ex-Twitter), Grok. 

Por meio da Procuradoria Nacional da União de Defesa da Democracia (PNDD), a AGU requer duas ações do Google. “A primeira é a desindexação dos sites de “nudificação”, a partir de listagem exemplificativa com mais de 40 links que estavam disponíveis no momento da notificação. A outra é a implementação de filtros algorítmicos para impedir indexação futura de sites similares", afirmou o órgão em comunicado.

AUMENTO POR PESQUISA E ATMOSFERA MISÓGINA DA INTERNET

O levantamento da FGV Rio  mostrou que entre 2024 e o começo de 2026, houve um  aumento alarmante de buscas por aplicativos de IA que produzem imagens sexualizadas falsas de pessoas reais. Houve também alta nas pesquisas por “undress” e “despir” fotos nos últimos meses, por conta da popularização dessa feature na ferramenta Grok, do X.

Além disso, desde janeiro até agora houve aumento repentino nas buscas do termo “telegram nudify". A Fast Company Brasil publicou no sábado uma exposição sobre como robôs que produzem pornografia sem consentimento atuam e seguem no ar no Telegram.

“Usuários não precisam sequer acessar a dark web ou fóruns especializados. Basta uma busca convencional para encontrar os resultado", diz o documento. 

A AGU citou ainda outras pesquisas e relatórios, inclusive de outros países, que apontam “o exponencial crescimento de uma atmosfera misógina nas redes sociais — agravadas (mas não apenas) pelo uso de ferramentas de IA para criar deepfakes de mulheres reais”

De acordo com a AGU, não se nega a responsabilidade do autor direto na criação e distribuição do conteúdo ilícito, ou do próprio desenvolvedor da ferramenta. Ainda assim, “a disponibilidade/indexação dessas ferramentas e sites pelo buscador do Google (ainda que não se consubstancie em hospedeiro direto) tem o condão de facilitar o acesso massivo a essas mesmas ferramentas, alçando-as à mesma categoria de qualquer outro item lícito de busca/interesse”.

No documento, os advogados da União destacam que o próprio Google já possui diretrizes específicas a respeito de veiculação de imagens íntimas não consensuais em seus Termos de Uso. 

Entretanto, apontam que as medidas da plataforma não têm sido suficientes para mitigar os riscos que as ferramentas de “nudificação” carregam, visto que os sites continuam indexados ao buscador.

ECA DIGITAL, RESPONSABILIDADE DE PLATAFORMAS E O GOOGLE

A notificação reforçou que, conforme definido pelo Supremo Tribunal Federal (STF), as plataformas podem ser responsabilizadas por conteúdos gerados por terceiros nos casos em que, tendo conhecimento dos atos ilícitos, não procedam à remoção imediata do material.

Além disso, a AGU alertou que as empresas têm dever de cuidado sobre esses conteúdos. Ou seja, independentemente de notificação, devem buscar impedir a circulação de material que configure crimes graves, como é o caso dos nudes criados por IA sem autorização.

Leia mais: IA no Reddit: avanço da audiência ou risco às comunidades?

A AGU fundamentou também sua argumentação no dever constitucional do Estado, da sociedade e da família em pôr a salvo crianças e o adolescentes de toda forma de negligência, discriminação, exploração, violência, crueldade e opressão.

A notificação cita ainda o Marco Civil da Internet e o recente Estatuto Digital da Criança e do Adolescente (ECA Digital), além da Lei Geral de Proteção de Dados e dos Códigos Civil, Penal e de Defesa do Consumidor.

Os pesquisadores da FGV também fizeram um apelo em sua pesquisa, indicando que a desindexação é uma medida judicialmente e tecnicamente necessária para reduzir o abuso infantil online e a violência de gênero.“Plataformas têm responsabilidade de não amplificar ferramentas de violência”, diz o documento.


SOBRE A AUTORA

Camila de Lira é jornalista formada pela ECA-USP, early adopter de tecnologias (e curiosa nata) e especializada em storytelling para n... saiba mais