
Em uma decisão histórica que poderia remodelar o futuro da lei de inteligência e direitos autorais artificial, um juiz federal dos EUA decidiu que o Antrópico não violou a lei usando livros protegidos por direitos autorais para treinar seus sistemas.
Mas antrópicos- a empresa de IA por trás do chatbot de Claude- não está completamente fora do gancho; Ainda poderia enfrentar penalidades duras por como lidava com esses livros.
A decisão veio na segunda -feira do juiz distrital dos EUA, William Alsup, em São Francisco, que descobriu que o treinamento do Antrópico de seu modelo de IA usando as obras dos autores Andrea Bartz, Charles Graeber e Kirk Wallace Johnson se qualifica como uso justo.
Essa doutrina, que permite o uso limitado de conteúdo protegido por direitos autorais sem permissão, desempenhou um papel central na decisão da ALSUP, uma das primeiras a combater o uso justo na era da IA generativa.
"Como qualquer leitor que aspirasse a ser escritor, o Antrópico (AI Language Models) treinou em obras para não correr à frente e replicar ou suplantar - mas para virar um canto duro e criar algo diferente", escreveu Alsup.
Enquanto Alsup ficou do lado do Antrópico em relação ao uso dos livros para o treinamento de IA, ele ficou claro que a empresa superou os limites legais quando armazenou mais de 7 milhões de títulos piratas no que ele chamou de "biblioteca central". O juiz disse que isso não se enquadrava em uso justo.
Um julgamento foi programado para dezembro para determinar quais danos, se houver, antropia devem os autores. Sob a lei de direitos autorais dos EUA, os danos por violação voluntária podem chegar a US $ 150.000 por trabalho.
Anthrópica ainda não comentou publicamente a decisão, mas o resultado divide o caso em dois: a parte do treinamento está protegida e o armazenamento não é.
O caso faz parte de uma onda mais ampla de ações judiciais de autores e meios de comunicação direcionados a empresas como OpenAi, Meta e Microsoft sobre como estão construindo seus sistemas de IA. A questão no centro: essas empresas devem usar material protegido por direitos autorais, muitas vezes sem consentimento, para desenvolver ferramentas que, de certa forma, competam com os criadores originais?
A decisão da Alsup dá um impulso aos desenvolvedores de IA, muitos dos quais argumentam que seus modelos estão produzindo conteúdo novo e transformador e não devem ser forçados a pagar todos os detentores de direitos autorais cujo trabalho foi usado ao longo do caminho.
"Como qualquer leitor que espera se tornar um escritor, os modelos do Anthrópio foram treinados nesses livros para não copiá -los, mas para criar algo totalmente novo."
Alsup.
Anthrópica havia dito ao tribunal que copiar os livros era essencial para estudar estilos de redação e elementos nãotrac, como estrutura e tom, para ajudar sua IA a criar um novo conteúdo.
A empresa argumentou que esse tipo de aprendizado realmente promove a criatividade humana, algo que a lei de direitos autorais deve incentivar.
Mas Alsup também criticou antropia por coletar cópias digitais piratas dos livros. Embora a empresa tenha insistido que a fonte do material não importava, Alsup discordou StronGly.
Em sua decisão, ele disse: "Esta ordem duvida de que qualquer infrator acusado possa cumprir seu ônus de explicar por que o download de cópias de origem de sites piratas que poderia ter comprado ou acessado legalmente era razoavelmente necessário para qualquer uso justo subsequente".
Essencialmente, embora o uso final possa ser protegido, como o antropia colocou as mãos no material não. Essa distinção pode moldar como as empresas de IA coletam dados de treinamento no futuro e potencialmente incentivam o fornecimento de dados mais éticos ou pelo menos legais.
Com mais processos de direitos autorais alinhados contra empresas de IA, essa decisão pode definir um precedente dent . O julgamento de dezembro agora decidirá se a abordagem do Anthrópico para armazenar o conteúdo merece penalidades financeiras e, em caso afirmativo, quão íngremes elas deveriam ser.
Principais diferenças : os projetos de criptografia de ferramenta secreta usam para obter cobertura de mídia garantida