Justiça dos EUA condena startup de IA por pirataria, mas autoriza uso de livros em tecnologia

SÃO PAULO, SP (FOLHAPRESS) – Uma decisão da Justiça americana tomada em junho criou o primeiro precedente para o uso de livros no desenvolvimento de sistemas de inteligência artificial.

Na ação, três escritores acusavam a startup de IA Anthropic de usar sem autorização seus textos para treinar o chatbot Claude. De acordo com os autos do processo, a Anthropic baixou 5 milhões de livros disponíveis na plataforma de pirataria Library Genesis (LibGen) e mais 2 milhões na PiLiMi (Pirate Library Mirror), sem pagar os autores.

Em sua defesa, a Anthropic argumenta que a ação teve fins de pesquisa e, por isso, seria um caso de uso justo, doutrina segundo a qual não é necessário remunerar os autores em casos como jornalismo, ensino e investigação científica.

Em sua decisão, o juiz William Alsup, da comarca do Norte da Califórnia, considerou que essa ação foi um caso típico de pirataria, por causa do acesso às cópias sem pagamento. No último dia 17, o magistrado decidiu transformar esse processo em ação coletiva, para que outros autores possam também pedir uma reparação financeira ao fim do processo.

Por outro lado, Alsup abriu caminho para não remunerar os autores que tiverem obras usadas no treinamento de IA, ao decidir sobre outra parte da queixa.

Trata-se de uma mudança feita de estratégica da própria Anthropic, depois de alerta de seu departamento jurídico, em fevereiro de 2024: em vez de baixar livros pirateados, a companhia iniciou uma compra massiva de livros usados –os documentos mencionam “milhões de exemplares”. Depois, a equipe da Anthropic desencadernou as cópias, as digitalizou e destruiu os volumes físicos.

Em uma alegação à parte, os três escritores argumentam que a mudança de mídia do material não se enquadra na doutrina do uso justo. Empresas de inteligência artificial usam esse argumento para acessar produções protegidas por direito autoral sem pagar.

Nessa questão, o magistrado Alsup decidiu a favor da Anthropic, ao considerar que a utilização pelo laboratório de IA foi transformadora e não envolveu a distribuição de cópias digitais.

“Como os leitores não interagem diretamente com o livro, e sim com a versão intermediada pela inteligência artificial, não houve desrespeito às regras de uso justo”, decidiu Alsup.

Foi um argumento similar ao que a Alphabet usou para defender que o Google Livros não era uma plataforma de leitura de livros porque impõe um limite de páginas que podem ser lidas em sua plataforma.

Os escritores também reclamavam que a Anthropic usou o material para criar uma biblioteca digital violando a lei de direito autoral. O juiz negou esse argumento, com base na Lei do Livro norte-americana, que permite a quem comprar exemplares fazer o que quiser com as unidades, para viabilizar bibliotecas e sebos.

Para tanto, citou os precedentes de Texaco e Google, que já haviam escaneado textos para construir bibliotecas digitais particulares. O uso nesses casos foi considerado uma questão de praticidade e armazenagem, o que é legal.

Por fim, o magistrado comparou o caso à situação do aplicativo de torrent Napster, que se tornou um símbolo da pirataria digital no inicio dos anos 2000. Nesse caso, houve condenação por causa da multiplicação de cópias digitais na internet, o que não ocorre no caso do Claude, de acordo com o juiz da comarca do Norte da Califórnia.

Como os próprios escritores que acionaram a Justiça americana dizem nos autos, a prática de digitalizar livros para desenvolver sistemas de IA está se popularizando no Vale do Silício. Desde junho, o método ganhou aval da Justiça americana, ao menos provisoriamente.

Ambas as partes ainda podem recorrer da decisão.

USO JUSTO NÃO TEM EQUIVALENTE EM LEI BRASILEIRA

De acordo com a coordenadora de pesquisa do Reglab (um centro de pesquisa especializado em tecnologia e regulação), Marina Garrote, a decisão da Justiça americana não se transpõe de forma direta para o direito brasileiro. “A legislação brasileira de direitos autorais não tem uma regra geral equivalente ao uso justo americano”, afirma.

“No caso do treinamento de IA, ainda não há decisões específicas ou jurisprudência sobre o tema, e o assunto tem sido alvo de discussões importantes em projetos de lei, como no projeto de lei 2.338 de 2023 [que propõe a criação de um arcabouço regulatório para a tecnologia]”, acrescenta Garrote.

Voltar ao topo