A Anthropic, empresa de inteligência artificial (IA) responsável pelo chatbot Claude, aceitou pagar 1,5 mil milhões de dólares (cerca de 1,3 mil milhões de euros) para encerrar uma acção colectiva de direitos de autor nos Estados Unidos. O acordo, ainda sujeito a aprovação judicial, poderá tornar-se a maior compensação da história do país em litígios de propriedade intelectual, e envolve a utilização de cerca de 500 mil livros que terão sido copiados ilegalmente para treinar modelos de IA.

O processo foi iniciado em 2024 pelos autores Andrea Bartz, Charles Graeber e Kirk Wallace Johnson, que acusaram a empresa de ter recorrido a “bibliotecas-sombra” como LibGen, Pirate Library Mirror e Books3 para obter obras sem autorização. Em Junho de 2025, o juiz William Alsup decidiu que o uso de livros obtidos de forma legítima poderia enquadrar-se no princípio de “fair use” (uso justo), mas considerou injustificado o armazenamento de cópias piratas, remetendo o caso para julgamento.

Perante a perspectiva de uma batalha judicial longa e arriscada, a Anthropic optou por um acordo que prevê uma compensação de 3000 dólares por cada obra abrangida (cerca de 2560 euros), valor que poderá ser ajustado caso mais livros sejam incluídos na lista. A empresa comprometeu-se também a eliminar os ficheiros ilegais dos seus sistemas.

Reacções e impacto no sector

A Authors Guild, principal associação de autores nos EUA imprensa, emitiu um comunicado de imprensa onde saudou o acordo como “um passo vital para responsabilizar empresas de IA que utilizam indevidamente o trabalho criativo”. Em declarações à Wired, Maria Pallante, presidente da Association of American Publishers, afirmou que este desfecho envia uma mensagem clara: conteúdos obtidos de forma ilícita não podem ser usados como matéria-prima para treinar modelos de inteligência artificial.

Apesar de evitar um julgamento que poderia ter custado dezenas ou centenas de milhares de milhões de dólares, o Ars Technica revela que acordo é visto com preocupação noutros sectores da indústria. Há quem tema que crie um precedente que torne mais difícil e dispendioso o desenvolvimento de novos modelos, numa altura em que empresas como OpenAI, Meta e Microsoft também enfrentam acções semelhantes. A questão central permanece: como podem os modelos de IA, que dependem de enormes volumes de dados, aceder a informação de forma legal e ética?

Se o tribunal aprovar a homologação preliminar nas próximas semanas, os autores poderão consultar uma plataforma para verificar se as suas obras estão incluídas e solicitar o respectivo pagamento.