Um juiz federal rejeitou a maioria dos processos de Sarah Silverman contra a Meta sobre o uso não autorizado de livros de autores protegidos por direitos autorais para treinar um modelo generativo de IA, marcando a segunda decisão de um tribunal que fica do lado das empresas de IA em novas questões de propriedade intelectual levantadas em… Batalha jurídica. .
O juiz distrital dos EUA, Vince Chhabria, negou na segunda-feira uma das principais teorias dos autores de que o sistema de IA da Meta é em si um trabalho derivado infrator que só foi possível por informações extraídas de materiais protegidos por direitos autorais. “Isso não faz sentido”, escreveu ele. “Não há como entender os próprios Formulários LLaMA como uma reformulação ou modificação de qualquer um dos livros dos Requerentes.”
Outro argumento de Silverman de que todo resultado produzido pelas ferramentas de IA da Meta constitui violação de direitos autorais foi rejeitado porque ela não forneceu evidências de que qualquer um dos resultados “poderia ser entendido como uma reformulação, transformação ou adaptação dos livros dos demandantes”. Chhabria deu ao seu advogado a oportunidade de rejeitar o processo, juntamente com outros cinco que não foram autorizados a apresentar-se.
Notavelmente, a Meta não rejeitou a alegação de que copiar livros para fins de treinamento de seu modelo de IA chega ao nível de violação de direitos autorais.
A decisão baseia-se nas conclusões de outro juiz federal que supervisiona uma ação movida por artistas que processam geradores de arte de inteligência artificial pelo uso de bilhões de imagens baixadas da Internet como dados de treinamento. Nesse caso, o juiz distrital dos EUA, William Orrick, desferiu um golpe semelhante nas reivindicações básicas do processo, questionando se os artistas poderiam provar a violação de direitos autorais na ausência de materiais idênticos gerados por ferramentas de inteligência artificial. Ele descreveu as alegações como “falhas em vários aspectos”.
Algumas das questões levantadas no processo podem decidir se os criadores serão compensados por usarem seus materiais para treinar chatbots que imitam humanos e que têm o potencial de prejudicar seu trabalho. As empresas de IA afirmam que não têm de obter licenças porque estão protegidas pela defesa da utilização justa contra violação de direitos de autor.
De acordo com a reclamação apresentada em julho, o modelo de IA da Meta “copia cada pedaço de texto no conjunto de dados de treinamento” e então “modifica gradualmente sua saída para se parecer mais” com a expressão extraída do conjunto de dados de treinamento. O processo gira em torno da alegação de que todo o propósito do LLaMA é imitar expressões protegidas por direitos autorais e que todo o formulário deve ser considerado um trabalho derivado infrator.
Mas Chhabria chamou esse argumento de “inaplicável” na ausência de alegações ou evidências de que LLaMA, que significa Large Language Model Meta AI, foi “retrabalhado, transformado ou adaptado” com base em trabalhos pré-existentes protegidos por direitos autorais.
Outra das principais teorias de Silverman – juntamente com outros criadores que processam empresas de IA – é que todos os resultados produzidos por modelos de IA são infracções derivadas, com as empresas a lucrar com todas as respostas fornecidas por utilizadores externos que alegadamente constituem um acto de infracção indirecta. O juiz concluiu que seus advogados, que também representam os artistas que processam StabilityAI, DeviantArt e Midjourney, estão “errados ao dizer que” – porque seus livros foram copiados na íntegra como parte do processo de treinamento LLaMA – não havia evidências de substancialmente saída semelhante. necessário.
“Para derrotar a teoria de que os resultados do LLaMA constituem violação de derivativos, os demandantes precisariam realmente alegar e, em última análise, provar que os resultados ‘de alguma forma incorporam parte dos’ livros dos demandantes”, escreveu Chhabria. Seu raciocínio reflete o de Orrick, que concluiu no processo contra a StabilityAI que “o trabalho derivado supostamente infrator ainda deve ter alguma semelhança com o trabalho original ou conter os elementos protegidos do trabalho original”.
Isto significa que, na maioria dos casos, os requerentes terão de apresentar provas de obras infratoras produzidas por ferramentas de IA que sejam idênticas ao seu material protegido por direitos de autor. Isto é potencialmente um grande problema porque, em alguns casos, reconhecem que é improvável que qualquer um dos resultados corresponda de perto ao material utilizado nos dados de formação. De acordo com a lei de direitos autorais, o teste de similaridade substancial é usado para avaliar o grau de similaridade e determinar se ocorreu violação.
Outras alegações rejeitadas no despacho Chhabria incluem as relativas ao enriquecimento sem causa e à violação das leis da concorrência. Na medida em que se baseou na alegação remanescente de violação de direitos autorais, foi considerado prevenido.
Meta não respondeu imediatamente a um pedido de comentário.
Em julho, Silverman também entrou com uma ação coletiva contra a OpenAI, acusando a empresa de violação de direitos autorais. Este caso foi consolidado com outras ações movidas pelos autores na Justiça Federal.
“Introvertido ávido. Especialista em zumbis do mal. Defensor de TV. Evangelista de mídia social. Praticante de cultura pop. Nerd de cerveja.”
More Stories
Um tributo “Disclaimer” de Veneza de 6 minutos à série de TV de Alfonso Cuarón
O comediante que apresentará o próximo Globo de Ouro promete contar verdades como Ricky Gervais: Isso pode ‘fazer com que meu programa seja cancelado’
Pai da estrela de ‘Austin Powers’, Heather Graham, avisa que Hollywood ‘levará minha alma’