O que o caso com Scarlett Johansson nos diz sobre o futuro da OpenAI

Talvez devêssemos nos preocupar com o fato de que a empresa que está liderando a próxima onda da IA não parece ser totalmente honesta

Crédito: Paul Morigi/ Getty Images

Mark Sullivan 4 minutos de leitura

O CEO da OpenAI, Sam Altman, convidou a atriz Scarlett Johansson – que dublou uma assistente de IA no filme “Ela”, de 2013 – para ser a voz do ChatGPT. O convite foi recusado. A empresa, então, criou uma voz chamada Sky, que se parece muito com a da atriz e a usou sem informá-la. Agora, Johansson decidiu se pronunciar e, desde então, a voz foi removida do chatbot.

A OpenAI afirma que a Sky – que estreou no ChatGPT em setembro do ano passado – é baseada na voz de outra atriz, que fez as gravações antes de Altman fazer o convite à Johansson. O CEO disse que a OpenAI removeu a voz Sky “em respeito à sra. Johansson” e pediu desculpas por “não ter se comunicado melhor.”

Este episódio foi mais do que um simples “tiro no pé” ou uma gafe de relações públicas. Quando visto no contexto de outras ações sob a liderança de Altman, ele parece parte de um padrão.

Há apenas cerca de seis meses, o conselho da OpenAI demitiu Altman porque ele “não era consistentemente sincero em suas comunicações”. Mas ele logo reassumiu o cargo, devido à pressão de investidores e funcionários. Uma fonte próxima diz que o CEO frequentemente “diz uma coisa e faz outra”.

Altman já falou sobre a importância da segurança no desenvolvimento de inteligência artificial, mas foi acusado de apressar o lançamento de novos produtos de IA sem dedicar tempo suficiente para garantir que fossem seguros.

A última acusação nesse sentido veio de Jan Leike, que deixou a empresa (junto com o cofundador Ilya Sutskever) após o grupo de segurança de “superalinhamento” que liderava ser dissolvido.

“Nos últimos anos, a cultura e os processos de segurança ficaram em segundo plano em relação aos produtos chamativos”, escreveu Leike no X/ Twitter. “Eu discordava da liderança da OpenAI sobre as prioridades centrais da empresa há bastante tempo, até chegarmos a um ponto de ruptura.”

No ano passado, quando a OpenAI anunciou a criação da equipe de segurança, Altman disse que a empresa dedicaria 20% de seu poder computacional para o trabalho de alinhamento. Mas, conforme relatou a revista Fortune, citando várias fontes, isso nunca aconteceu.

A OpenAI foi a primeira a perceber que, aumentando dramaticamente o tamanho dos modelos, a quantidade de dados de treinamento e o poder de computação, a IA poderia demonstrar habilidades impressionantes.

Para obter dados de treinamento suficientes, a empresa coletou grandes quantidades de dados da web – sem permissão ou compensação para os criadores do conteúdo.

Ela afirma que essa prática é coberta pelo “uso justo” na lei de direitos autorais dos EUA. Mas agora que seu método de coleta é mais conhecido, a empresa passou a pagar sites pelos dados e está sendo processada pelo “The New York Times por usar seu conteúdo para treinar modelos de IA.

Sam Altman (Crédito: Michael Dziedzic/ Unsplash)

Com o sucesso da abordagem de “superdimensionamento”, Altman e a OpenAI começaram a restringir o acesso à sua pesquisa, que antes era compartilhada abertamente com a comunidade de IA. Os investidores que injetaram dinheiro na startup insistiram que a pesquisa fosse tratada como propriedade intelectual e mantida em sigilo.

Sutskever e Leike podem ter sido alguns dos últimos defensores dos antigos princípios da OpenAI e de sua intenção declarada de “construir uma inteligência artificial geral que seja segura e beneficie toda a humanidade”. Desde a confusão na liderança em novembro do ano passado, Altman, seus aliados e os investidores provavelmente definem agora a agenda da empresa.

mais do que uma simples gafe ou um “tiro no pé”, o episódio com Scarlett Johansson parece parte de um padrão.

Os investidores podem admirar o CEO, que, afinal, também é um investidor. Podem ver sua abordagem de “melhor pedir perdão do que permissão” em relação ao caso envolvendo Scarlett Johansson e ao conteúdo dos veículos de mídia como exemplos de ações unilaterais para alcançar objetivos.

Podem, inclusive, ver o CEO como um rosto público amigável para um negócio que às vezes se envolve em práticas pouco éticas nos bastidores.

Deveríamos então nos preocupar com o fato de que a empresa que está introduzindo a “superinteligência como serviço” não é inteiramente honesta ou ética? Podemos confiar que ela criará chatbots honestos? Podemos ter certeza de que seus produtos não serão usados para criar armas biológicas ou influenciar as eleições?


SOBRE O AUTOR

Mark Sullivan é redator sênior da Fast Company e escreve sobre tecnologia emergente, política, inteligência artificial, grandes empres... saiba mais