Ações da Meta para barrar deepfakes são mínimas e chegam atrasadas

Eleições se aproximam em todo o mundo e a Meta ainda parece longe de ter uma resposta para os deepfakes

Crédito: Muhammad Asyfaul/ Unsplash

Mark Sullivan 3 minutos de leitura

No início da semana, a Meta anunciou que está tomando medidas para rotular conteúdo gerado por inteligência artificial, incluindo desinformação e deepfakes, em suas plataformas sociais – Facebook, Instagram e Threads. No entanto, sua estratégia de mitigação apresenta algumas falhas significativas e surge muito depois de a ameaça se tornar real.

A empresa disse que, “nos próximos meses” (quando a campanha eleitoral nos EUA estará pegando fogo), será capaz de identificar conteúdo gerado por IA em suas plataformas, criado por ferramentas como as da Adobe e da Microsoft.

Mas, para fazer isso, vai depender dos fabricantes para inserir metadados criptografados em conteúdos gerados, de acordo com as especificações de um órgão de padrões da indústria. A Meta ressalta que sempre adicionou “marcadores visíveis, marcas d’água e metadados” para identificar e rotular imagens geradas por suas próprias ferramentas de IA.

No entanto, essas estratégias de rotulagem não funcionam para agentes mal-intencionados que espalham desinformação. Essas pessoas utilizam ferramentas de código aberto menos conhecidas para gerar conteúdos difíceis de serem rastreados até a origem, ou outras que impedem a adição de metadados ou marcas d’água.

Não há dados suficientes que indiquem que a Meta tem a tecnologia para identificar e rotular esse tipo de conteúdo em larga escala. A empresa afirma que está trabalhando para desenvolver modelos de IA de classificação para detectar conteúdos gerados que não possuem marcas d’água ou metadados.

Crédito: imaginima/ Getty Images

Também reconhece que ainda não é capaz de detectar vídeos ou áudios gerados por inteligência artificial. Ela conta com os usuários para rotular conteúdos alterados digitalmente quando forem postá-los e diz que pode “aplicar penalidades” para aqueles que não o fizerem.

“Considero isso necessário, mas é algo que veio com pelo menos um ano de atraso”, observa Ben Decker, CEO e fundador da Memetica, que trabalha com organizações que são alvos de assédio, desinformação ou extremismo.

“Já vimos isso antes, um problema tecnológico permanecer sem solução nas redes sociais. Quanto tempo leva para desenvolver uma resposta? Quais são suas verdadeiras intenções? É uma medida de relações públicas ou uma motivação real de integridade da plataforma?”, questiona Decker.

A HORA É AGORA

Para o fundador da Memetica, a defesa contra conteúdo prejudicial gerado por IA provavelmente será um processo sem fim, com as plataformas tentando acompanhar as últimas táticas dos propagadores de desinformação.

“Os trolls sempre estiveram na vanguarda da exploração e do abuso nas plataformas e a engenhosidade humana supera as máquinas nove em cada 10 vezes”, diz ele. “Precisamos pensar em como podemos limitar as chances de eles vencerem.” Parte da resposta é mais teste de penetração e mais pesquisa, acrescenta.

Em um post no blog da empresa, Nick Clegg, representante de políticas públicas da Meta, retrata a questão da desinformação gerada por IA como um problema futuro da indústria e da sociedade como um todo.

A Meta reconhece que ainda não é capaz de detectar vídeos ou áudios gerados por IA e que conta com os usuários para rotular conteúdos alterados digitalmente quando eles forem postá-los.

“À medida que isso se tornar mais comum nos próximos anos, haverá debates na sociedade sobre o que deve ou não ser feito para identificar conteúdos sintéticos.” 

No entanto, a Meta controla, de longe, a maior rede de distribuição desse tipo de conteúdo atualmente – e a necessidade de detectar e rotular deepfakes é urgente, não algo para daqui a alguns meses. Basta perguntar a Joe Biden ou Taylor Swift. Não é o momento de falar sobre planos e abordagens futuras; outro ciclo eleitoral de alto risco já se aproxima.

A Meta vem desenvolvendo suas próprias ferramentas de IA generativa há anos. Mas será que ela pode realmente dizer que dedicou a mesma quantidade de tempo, recursos e inteligência para mitigar o risco de desinformação de sua tecnologia?

Por mais de uma década, a Meta tem desempenhado um enorme papel em desfazer os limites entre verdade e desinformação, e agora parece estar agindo lentamente para responder à próxima grande ameaça à verdade, confiança e autenticidade.


SOBRE O AUTOR

Mark Sullivan é redator sênior da Fast Company e escreve sobre tecnologia emergente, política, inteligência artificial, grandes empres... saiba mais