Deepfakes de Taylor Swift são alerta para a urgência de regular a IA

Imagens deepfake sinalizam que nossos problemas com a IA generativa pode piorar se os órgãos reguladores e as empresas não agirem

Crédito: Getty Images

Chris Stokel-Walker 4 minutos de leitura

Taylor Swift confrontou as gravadoras e brigou pela propriedade das suas músicas. A cantora acumulou prêmios no Grammy e esteve à frente da primeira turnê de US$ 1 bilhão do mundo. Mas, de um dia para o outro, seu empoderamento foi abalado da maneira mais crua e deprimente possível para uma mulher: por meio de pornografia deepfake.

As imagens grosseiras, que a Fast Company optou por não mostrar nem linkar, retratam vários atos sexuais gerados por IA. Uma conta que postou as imagens ficou no ar durante quase um dia antes de ser suspensa, depois de já terem sido visualizadas mais de 45 milhões de vezes. Os agentes de Swift não responderam ao pedido de comentário da Fast Company.

O tipo de degradação das mulheres que as reduz a meros objetos sexuais – e a criação de imagens explícitas de seus corpos – vem ocorrendo há muito, muito tempo. Mas a confluência entre o surgimento de megaestrelas globais, como Swift, e o aumento rápido e irrestrito de ferramentas de IA generativa faz com que essas imagens se tornem virais nas mídias sociais da noite para o dia.

Por isso, este caso é um marco e um alerta sobre o futuro do abuso sexual online, caso os órgãos reguladores e as empresas não tomem providências.

O caso de Taylor Swift talvez seja o de maior destaque e aquele com mais recursos para lutar contra as plataformas de tecnologia.

Embora muitos dos fãs de Swift tenham se unido para combater os resultados dos termos de pesquisa nas mídias sociais com outras imagens, na tentativa de minimizar os danos, a realidade – muito deprimente para as vítimas de pornografia de vingança e para o crescimento de imagens deepfake – é que essas imagens criadas por IA agora estão espalhadas por aí.

A controvérsia destaca uma série de questões, diz Carolina Are, pesquisadora de governança de plataforma do Centre for Digital Citizens da Northumbria University. Uma delas é a atitude com que a sociedade trata a sexualidade das mulheres e, em particular, o compartilhamento de imagens não consensuais, sejam elas roubadas das vítimas ou geradas com o uso de IA. 

"Isso gera um sentimento de impotência", diz ela. "É literalmente a impotência sobre seu próprio corpo em espaços digitais. Infelizmente, parece que isso vai se tornar algo comum".

As plataformas, inclusive o X/ Twitter, onde as imagens foram compartilhadas pela primeira vez, têm tentado impedir o compartilhamento, inclusive suspendendo as contas que publicaram o conteúdo. Mas os usuários repostaram em outras plataformas.

ASSÉDIO E ABUSO SEXUAL

Swift está longe de ser a primeira vítima de imagens não consensuais geradas por IA. Em outubro, uma cidade espanhola foi abalada por um escândalo que resultou na criação de imagens deepfake de mais de 20 mulheres e meninas, a mais jovem delas com apenas 11 anos de idade. A pornografia deepfake também foi usada como forma de extorquir dinheiro das vítimas.

Mas Swift talvez seja o caso de maior destaque e aquele com recursos para lutar contra as plataformas de tecnologia, o que pode finalmente obrigar algumas ferramentas de IA generativa a mudar seu rumo

Uma análise não acadêmica de quase 100 mil vídeos de deepfake publicados online no ano passado constatou que 98% deles eram pornográficos e 99% das pessoas que apareciam eram mulheres. Dessas pessoas nos vídeos, 94% trabalhavam no setor de entretenimento.

Crédito: Divulgação

Uma pesquisa relacionada, feita com mais de 1,5 mil homens norte-americanos, descobriu que três em cada quatro pessoas que consumiram pornografia deepfake gerada por IA não se sentiam culpadas por isso. Um terço deles afirmou que sabia não se tratar da pessoa de verdade e que, portanto, aquilo não era prejudicial para ninguém, contanto que fosse apenas para uso próprio. 

No entanto, a prática é, sim, prejudicial e as pessoas deveriam se sentir culpadas: uma lei de Nova York torna ilegal o compartilhamento de imagens sexuais não consensuais que são deepfaked, com pena de um ano de prisão. No Reino Unido, as disposições da Lei de Segurança Online tornaram ilegal o compartilhamento de tais imagens.

"Está claro que um desrespeito contínuo e sistêmico à soberania do corpo está alimentando os danos causados por deepfakes desse tipo, que são um verdadeiro abuso sexual e assédio sexual", diz Seyi Akiwowo, fundador e CEO da Glitch, uma campanha beneficente que busca mais direitos digitais para pessoas marginalizadas na internet.

"Precisamos que as empresas de tecnologia tomem medidas definitivas para proteger as mulheres e as comunidades marginalizadas contra os possíveis danos dos deepfakes", conclui Akiwowo.


SOBRE O AUTOR

Chris Stokel-Walker é um jornalista britânico com trabalhos publicados regularmente em veículos, como Wired, The Economist e Insider saiba mais