A Adobe enfrenta um desafio legal devido ao uso não autorizado das obras dos autores no desenvolvimento de modelos de IA

robot
Geração do resumo em andamento

A expansão agressiva da Adobe na inteligência artificial enfrenta um revés legal significativo. A empresa é acusada de incorporar materiais literários piratas na sua infraestrutura de aprendizagem automática — uma ação que desencadeou uma ação coletiva centrada em violações de direitos de autor.

A Acusação Central

A autora Elizabeth Lyon, de Oregon, entrou com uma ação coletiva propondo que a Adobe utilizou cópias não autorizadas de livros, incluindo as suas próprias obras, como material de treino para o SlimLM, o modelo de linguagem especializado da empresa, projetado para aplicações móveis de processamento de documentos. Segundo documentos judiciais, essas obras literárias foram incorporadas sem o consentimento ou compensação do autor.

Como os Livros Piratas Entraram no Sistema da Adobe

O caminho para esse suposto uso indevido remonta ao SlimPajama-627B, um conjunto de dados públicos criado pela Cerebras e lançado em meados de 2023. A Adobe baseou-se nesse conjunto de dados para pré-treinar o SlimLM. No entanto, a ação judicial revela uma cadeia problemática: o próprio SlimPajama foi derivado do RedPajama, ao incorporar o Books3 — um vasto repositório contendo 191.000 obras publicadas.

A questão crítica: o Books3 supostamente contém material protegido por direitos de autor coletado sem a devida autorização. Quando a Adobe construiu sobre essa base comprometida, a empresa supostamente herdou essas violações de direitos autorais. Como observa a equipe jurídica de Lyon, o SlimLM tornou-se uma obra derivada contendo conteúdo literário não autorizado.

Um Padrão Emergente em Toda a Indústria

A Adobe dificilmente é a primeira empresa de tecnologia a enfrentar tais acusações. Os conjuntos de dados que alimentam os sistemas de IA modernos tornaram-se um campo minado de disputas de direitos autorais:

  • Modelo de Inteligência da Apple: Em setembro, a Apple foi processada por supostamente treinar seu sistema de IA com material proveniente do RedPajama sem compensar os detentores dos direitos
  • Práticas de Treinamento da Salesforce: Em outubro, ocorreu uma ação similar contra a Salesforce, acusando a empresa de usar conjuntos de dados RedPajama de forma inadequada
  • Acordo da Anthropic: Mais significativamente, a Anthropic concordou com um acordo de US$ 1,5 bilhões com autores em setembro, reconhecendo que tinha incorporado obras piratas no pipeline de treinamento do Claude

Por Que Isso Importa

A proliferação de modelos de IA exige quantidades enormes de dados textuais. Quando os desenvolvedores obtêm materiais de compilações como Books3 ou RedPajama sem verificar cuidadosamente a proveniência legal, criam riscos institucionais. Os processos repetidos sugerem que confiar nesses conjuntos de dados — por mais conveniente que seja — agora acarreta uma exposição legal substancial.

Para a Adobe e empresas similares, a mensagem está se tornando inevitável: negligenciar a origem dos dados de treinamento pode ser muito mais caro do que obter licenças legítimas.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)