5 perguntas para Scott Belsky, VP de design e novos produtos da Adobe
A tecnologia deepfake e o uso mal-intencionado da inteligência artificial vêm causando uma ansiedade generalizada, ainda mais diante da proximidade das eleições presidenciais norte-americanas, em novembro.
Em entrevista, o diretor de estratégia e vice-presidente executivo de design e produtos emergentes da Adobe, Scott Belsky, explica o impacto dos deepfakes no mercado de mídia e de criadores e como desenvolvedores como a Adobe têm sido pioneiros em novas maneiras de verificar, para os consumidores comuns, se o conteúdo que eles estão vendo foi gerado por humanos.
Esta é uma transcrição resumida de uma entrevista do programa Rapid Response, apresentada pelo ex-editor-chefe da Fast Company Robert Safian.
Rapid Response – Com o surgimento da IA generativa, em produtos como DALL-E, Midjourney e Firefly (da Adobe), o cenário ficou mais complicado. Os designers estão preocupados com a possibilidade de serem substituídos pela IA?
Scott Belsky – A tecnologia sempre aumentou o potencial criativo. Muitos de nossos clientes relatam que gastam a maior parte de seu tempo em nossas ferramentas fazendo trabalhos mundanos e repetitivos. E eles sempre nos pedem recursos que os ajudem a se tornar mais produtivos e expressivos no lado criativo, tendo que fazer menos coisas chatas.
Como podemos evitar que essa tecnologia seja usada para criar em nosso lugar? E, ao mesmo tempo, como devemos treinar esses modelos? E como devemos nos certificar de que a propriedade intelectual das pessoas seja protegida? Como garantir que os profissionais que atuam na área sejam remunerados?
Tentamos seguir o caminho mais correto possível nesse sentido. E, em paralelo, existem pessoas que ainda nem começaram a brincar com a tecnologia, e estamos tentando incentivá-las a experimentar.
Rapid Response – Um dos usos mais preocupantes da IA são os deepfakes, conteúdos que parecem reais e soam reais, mas não são. Qual é o perigo disso?
Scott Belsky – Eu costumo dizer que estamos assistindo a uma virada da era do “acredite, mas verifique” para a era do “verifique e só depois acredite”. É um novo mundo. Uma iniciativa da Adobe, que é um consórcio sem fins lucrativos de código aberto, é o Content Credentials Movement.
a resposta não é acabar com o uso da tecnologia, mas garantir que as pessoas saibam como ela pode ser usada de forma abusiva.
A ideia é que os bons agentes do setor, pessoas que querem ser merecedoras de confiança, possam adicionar credenciais ao seu conteúdo para que comprovem como ele foi criado. Eles poderiam informar qual foi o modelo utilizado e quais as modificações feitas.
Assim, será possível analisar o conteúdo e dizer: “será que eu verifiquei essa mídia o suficiente para confiar nela ou não?”. Acho que esse será o padrão de comportamento no futuro.
Rapid Response – Na esfera política, recentemente Donald Trump alegou que as imagens do público nos comícios de Kamala Harris foram geradas por IA. Essa acusação foi só um equívoco ou deve ser considerado algo mais sério?
Scott Belsky – Seja a internet, seja o bitcoin, todas essas tecnologias foram muito usadas em um primeiro momento para fins ilícitos. Com a IA não é diferente. E, no início, nós com certeza veremos casos de uso que são preocupantes.
Acho que o mais importante é falarmos abertamente desses casos, mesmo que, no momento, o sensacionalismo se manifeste em manchetes do tipo “olha, mais um deepfake!”. Na verdade, gerar essa dúvida pode ser bom, porque é uma forma de popularizar a ideia de que não se deve mais confiar em tudo o que se vê.
É como quando você escuta histórias sobre alguém que recebe uma ligação da avó, é a voz da avó pedindo dinheiro. É algo muito assustador, mas a resposta não é acabar com o uso da tecnologia. A resposta é garantir que as pessoas saibam como ela pode ser usada de forma abusiva para, assim, tomar precauções.
Rapid Response – A questão que parece interessar mais aos profissionais são as regras de direitos autorais. Como os direitos autorais devem evoluir nesse mundo da IA?
Scott Belsky – As preocupações e as perguntas que agora estão no topo das preocupações dos profissionais de criação são muito diferentes do que foram durante toda a minha carreira.
Vou me adiantar e mencionar, antes que me perguntem: o desastre foi a atualização de nossos Termos de Uso, que não eram alterados há 11 anos. Fizemos uma modificação em relação a quando o conteúdo é verificado em busca de imagens de exploração sexual infantil.
estamos assistindo a uma virada da era do “acredite, mas verifique” para a era do “verifique e só depois acredite”.
Mas essa alteração que fizemos foi parafraseada por nossa equipe jurídica e os clientes passaram a receber um pop-up quando tinham que aceitar os Termos de Uso. Ele dizia: “A Adobe atualizou sua política de moderação de conteúdo”. Isso fez com que alguns criadores ficassem preocupados: “ah, a Adobe está fuçando no meu trabalho”.
Na verdade, estávamos apenas fazendo o que é legalmente obrigatório. Mas, se os clientes entrassem e lessem a licença limitada que a Adobe utiliza para reformular seu conteúdo para ele que funcione em diferentes dispositivos, veriam que essas são coisas normais que qualquer pessoa que trabalhe com tecnologia sabe que são normais.
Mesmo assim, os clientes se perguntaram: “espere, licença limitada? Isso significa que vocês estão usando nosso conteúdo para treinamento de IA?”
Rapid Response – E vocês estavam?
Scott Belsky – Nunca treinamos com o conteúdo de nossos clientes. Sempre fomos muito, muito claros sobre como nossos modelos foram treinados para IA generativa e nosso programa de compensação para aqueles que têm conteúdo que faça parte do inventário da Adobe que é usado para treinamento.
A lição que tirei disso foi que todas as empresas agora precisam dar um passo atrás e revisar suas políticas, para garantir que estão levando em conta as preocupações dos criadores de conteúdo.
Revisamos todos os Termos de Serviço e dissemos exatamente o que fazemos e o que não fazemos. Fomos explícitos em relação ao que não fazemos. E estou muito orgulhoso disso. Arrisco dizer que, atualmente, nossos Termos de Uso provavelmente são os mais fáceis de entender de todas as ferramentas disponíveis para criadores na internet.
Mas esse episódio serviu como um alerta. Acho que, com relação aos direitos autorais e à lei de direitos autorais, temos que ser muito proativos. O departamento jurídico é uma parte muito importante da estratégia de todos agora, para garantir que estamos fazendo a coisa certa.