Un groupe d'écrivains, dont le lanceur d'alerte de Theranos et auteur John Carreyrou, a déposé une nouvelle poursuite contre six grandes entreprises d'IA, les accusant d'avoir formé leurs modèles à partir de copies piratées de leurs livres. La poursuite vise Anthropic, Google, OpenAI, Meta, xAI et Perplexity, alléguant que les entreprises se sont rendues coupables de violation du droit d'auteur en utilisant des livres volés pour former leurs grands modèles de langage (LLM). Ce n'est pas la première fois que des auteurs prennent des mesures contre des entreprises d'IA pour des raisons similaires ; une poursuite collective précédente contre Anthropic a abouti à un règlement de 1,5 milliard de dollars, mais certains auteurs n'ont pas été satisfaits du résultat.
Selon la nouvelle poursuite, les plaignants soutiennent que le règlement proposé par Anthropic était injuste et n'a pas tenu les entreprises d'IA responsables de leurs actes. "Le règlement proposé semble servir les entreprises d'IA, et non les créateurs", a déclaré un porte-parole des plaignants. "Les entreprises de LLM ne devraient pas pouvoir éteindre si facilement des milliers et des milliers de réclamations de haute valeur à des tarifs de vente au détail, en éludant ce qui devrait être le coût réel de leurs actes."
La poursuite met en évidence la question complexe de la violation du droit d'auteur dans le contexte du développement de l'IA. Les LLM sont formés à partir de vastes quantités de données textuelles, qui peuvent inclure des copies piratées de livres. Les entreprises soutiennent qu'elles ne sont pas responsables des actes de leurs prédécesseurs, qui peuvent avoir obtenu les livres par des moyens illicites. Cependant, les plaignants soutiennent que les entreprises sont toujours responsables de la violation du droit d'auteur, car elles bénéficient financièrement de l'utilisation des livres volés.
Ce n'est pas la première fois que des auteurs expriment des inquiétudes quant à l'utilisation par les entreprises d'IA de copies piratées de leurs œuvres. En 2022, un groupe d'auteurs a déposé une poursuite collective contre Anthropic, alléguant que l'entreprise avait formé son LLM à partir de copies piratées de leurs livres. L'affaire a été réglée hors cour, Anthropic acceptant de payer 1,5 milliard de dollars aux auteurs touchés.
La poursuite soulève également des questions sur les implications du développement de l'IA pour la société. À mesure que les LLM deviennent de plus en plus répandus, la question de la violation du droit d'auteur est susceptible de devenir plus pressante. "L'utilisation de livres piratés pour former les LLM est un symptôme d'un problème plus large", a déclaré un expert en technologie. "Nous devons repenser notre approche de la propriété intellectuelle à l'ère de l'IA."
Le statut actuel de la poursuite est incertain, mais il est susceptible d'être suivie de près par l'industrie technologique et la communauté littéraire. Les plaignants réclament des dommages et intérêts et un jugement de la cour qui tiendrait les entreprises d'IA responsables de leurs actes. Si la poursuite est couronnée de succès, elle pourrait avoir des implications significatives pour le développement de l'IA et la façon dont les entreprises abordent la propriété intellectuelle.
Dans un communiqué, un porte-parole d'Anthropic a déclaré que l'entreprise "examinait la poursuite et y répondrait en conséquence". Les autres entreprises visées par la poursuite n'ont pas commenté l'affaire.
Discussion
Join 0 others in the conversation
Share Your Thoughts
Your voice matters in this discussion
Login to join the conversation
No comments yet
Be the first to share your thoughts!