A Apple foi acionada na Justiça Federal da Califórnia por dois neurocientistas que alegam que a companhia utilizou milhares de livros protegidos por direitos autorais, obtidos em “shadow libraries” (repositórios de pirataria), para treinar o Apple Intelligence, conjunto de recursos de IA presente no ecossistema da marca.
Segundo a Reuters, os autores da ação são Susana Martinez-Conde e Stephen Macknik, professores do SUNY Downstate Health Sciences University, em Nova York. Eles afirmam que seus próprios títulos, Champions of Illusion e Sleights of Mind, constam entre as obras usadas sem autorização.
O processo, proposto como ação coletiva, sustenta que a base de treinamento do Apple Intelligence inclui conjuntos de dados formados por livros copiados ilegalmente e outros materiais com infração de copyright coletados na internet. Os demandantes pedem compensação financeira e uma ordem judicial que impeça a Apple de continuar a suposta prática de uso indevido de conteúdo protegido. Até o momento da publicação, as partes não haviam comentado oficialmente para a Reuters.
Leia mais: Exclusivo: Actionline assume vendas B2B da Vivo e quer dobrar receita até 2026
A disputa amplia a lista de casos de alto impacto envolvendo empresas de tecnologia acusadas de usar obras protegidas para treinar modelos de IA generativa. Além de processos contra OpenAI, Microsoft e Meta, há um histórico recente envolvendo a própria Apple: em setembro, autores moveram uma ação na Califórnia alegando que a companhia recorreu a um acervo de livros pirateados, como o conjunto “Books3”, para treinar modelos de linguagem (LLMs) associados ao seu esforço em IA. Esse processo também questiona a coleta feita por ferramentas de rastreamento da própria empresa.
Apple Intelligence no centro da discussão
No caso atual, Martinez-Conde e Macknik afirmam que a forma como o Apple Intelligence teria sido treinado contraria a legislação de direitos autorais dos Estados Unidos, pois envolve cópia e uso de obras sem licença, crédito ou pagamento. A ação argumenta que o emprego de “shadow libraries” não se confunde com usos transformativos amparados por exceções legais, uma defesa frequentemente mencionada em disputas semelhantes na indústria.
A controvérsia ocorre enquanto grandes plataformas de IA enfrentam escrutínio por transparência e governança de dados. Em agosto, por exemplo, a startup Anthropic concordou em pagar US$ 1,5 bilhão para encerrar uma disputa com um grupo de autores sobre o treinamento do chatbot Claude, acordo fechado sem admissão de culpa, mas que ilustra a crescente pressão sobre práticas de coleta e curadoria de conteúdo para modelos de aprendizado de máquina.
Para o mercado, o resultado de ações como a movida contra a Apple pode influenciar diretamente os custos e a dinâmica competitiva da IA generativa. Modelos mais avançados exigem grandes volumes de dados textuais, e eventuais decisões judiciais podem determinar limites, mecanismos de licenciamento, auditorias independentes ou requisitos adicionais de diligência sobre a origem do material de treinamento.
Nesse contexto, editoras, autores e detentores de direitos buscam remuneração e maior controle sobre o uso de suas obras; empresas de tecnologia defendem que suas práticas se enquadram em exceções como o “fair use” ou que não reproduzem textos protegidos de forma literal em saídas dos modelos.
A ação de Martinez-Conde e Macknik pede, além de indenização, uma injunção para impedir que a Apple continue utilizando material que os autores consideram irregular na formação de seus modelos. O documento também solicita certificação de classe para representar outros titulares afetados pelas supostas condutas, apontando que a escala do treinamento de IA torna a violação “sistêmica” e “difícil de detectar” sem perícia técnica.