Anthropic fecha acordo recorde de US$ 1,5 bi por violação de direitos autorais
Empresa vai pagar até US$ 3 mil por cada livro usado em treinamento e destruir dados usados ilegalmente para treinar o chatbot Claude

A Anthropic concordou em pagar um valor recorde de US$ 1,5 bilhão a um grupo de autores e editoras para encerrar uma ação coletiva de direitos autorais. O pagamento é considerado o maior da história em disputas desse tipo nos Estados Unidos e pode influenciar outros processos em que empresas de IA são acusadas de violação de direitos autorais.
“Este acordo envia uma mensagem poderosa para empresas de IA e criadores de conteúdo de que usar obras protegidas obtidas em sites piratas é errado”, afirmou em comunicado Justin Nelson, advogado dos autores.
O processo, aberto no ano passado, foi movido pelos escritores Andrea Bartz, Charles Graeber e Kirk Wallace Johnson, que alegaram que a Anthropic utilizou seus livros protegidos por direitos autorais para treinar o chatbot Claude.
Em junho, um juiz decidiu que a Anthropic podia treinar seu modelo com livros adquiridos legalmente, amparada pelo princípio do fair use (uso justo). No entanto, concluiu que a empresa obteve cópias ilegais em bibliotecas online, o que justificava o prosseguimento do caso para julgamento em dezembro.
Agora, segundo um documento judicial apresentado na semana passada, a empresa aceitou pagar US$ 3 mil por cada um dos cerca de 500 mil livros usados no treinamento de sua IA, mais juros. Também concordou em destruir os conjuntos de dados que continham material supostamente pirata.
“Até onde sabemos, este é o maior acordo de recuperação por violação de direitos autorais da história”, disse Nelson à "Associated Press". “É o primeiro do gênero na era da IA.”
“Se aprovado, o acordo vai encerrar as reivindicações remanescentes dos autores. Continuamos comprometidos em desenvolver sistemas de IA seguros, que ajudem pessoas e organizações a expandir suas capacidades, avançar na descoberta científica e resolver problemas complexos”, afirmou Aparna Sridhar, vice-conselheira jurídica da Anthropic.
DIREITOS AUTORAIS EM JOGO NA JUSTIÇA
O acordo pode servir de alerta para outras companhias que enfrentam questionamentos sobre o uso de material protegido em treinamentos de modelos. Em junho, o juiz reforçou que treinar modelos de linguagem com livros é um uso “transformador” – conceito essencial para a doutrina do fair use –, mas destacou que isso só se aplica quando o material é obtido legalmente.
Desde que chatbots ganharam popularidade, no final de 2022, escritores vêm manifestando preocupação de que suas obras tenham sido utilizadas sem autorização.
acordo pode influenciar outros processos em que empresas de IA são acusadas de violação de direitos autorais.
Em 2023, a Authors Guild, entidade que representa escritores, enviou uma carta aberta a CEOs de empresas de IA pedindo que buscassem consentimento antes de usar livros em treinamentos. Mais de 15 mil autores assinaram, incluindo a best-seller Nora Roberts.
“Se criadores não forem compensados de forma justa, não poderão continuar criando. Se escritores não forem pagos, não poderão escrever”, disse ela na época.
A Anthropic não é a única envolvida em disputas semelhantes: a OpenAI foi processada em 2023 por mais de uma dezena de autores e o caso ainda está em andamento. Já uma ação contra a Meta foi arquivada este ano, mas o juiz não chegou a decidir sobre a legalidade do uso de obras protegidas no treinamento de IA.