Les affaires judiciaires liées à l'IA générative s'accélèrent. Deux avis judiciaires viennent d'être rendus sur une question qui façonnera l'avenir de l'IA générative : l'entraînement de modèles d'IA générative sur des œuvres protégées par le droit d'auteur constitue-t-il un usage équitable ? L'un a parfaitement raison ; l'autre, moins, mais heureusement d'une manière que les futurs tribunaux pourront et devront ignorer.
Dans les deux affaires, la question fondamentale était de savoir si l'utilisation d'œuvres protégées par le droit d'auteur pour entraîner les grands modèles linguistiques (LLM) utilisés dans les chatbots IA constituait une utilisation équitable. En vertu de la loi américaine sur le droit d'auteur, pour répondre à cette question, les tribunaux doivent prendre en compte :
- si l’utilisation était transformatrice ;
- la nature des œuvres (sont-elles plus créatives que factuelles ? Publiées depuis longtemps ?)
- quelle proportion de l'original a été utilisée ; et
- le préjudice causé au marché de l’œuvre originale.
Dans les deux cas, les juges se sont concentrés sur les facteurs (1) et (4).
La bonne approche
Dans l' affaire Bartz c. Anthropic , trois auteurs ont poursuivi Anthropic pour avoir utilisé leurs livres afin de former son chatbot Claude. Dans son ordonnance statuant sur certaines parties de l'affaire, le juge William Alsup a confirmé ce que l'EFF affirme depuis des années : l'usage loyal protège l'utilisation d'œuvres protégées par le droit d'auteur à des fins de formation, car, entre autres, la formation de l'IA de génération est « transformatrice – spectaculairement » et tout préjudice allégué au marché de l'original relève de la pure spéculation. Tout comme la copie de livres ou d'images pour créer des moteurs de recherche est équitable, a statué le tribunal, la copie de livres pour créer un nouveau LLM « transformateur » et des technologies connexes est également protégée :
Utiliser des œuvres protégées par le droit d'auteur pour former les étudiants en master à la création de nouveaux textes a été fondamentalement transformateur. Comme tout lecteur aspirant à devenir écrivain, les étudiants en master d'Anthropic se sont formés sur des œuvres non pas pour les copier ou les supplanter, mais pour franchir un cap et créer quelque chose de différent. Si ce processus de formation nécessitait raisonnablement la réalisation de copies dans le cadre du master ou ailleurs, ces copies constituaient une utilisation transformatrice.
Il est important de noter que Bartz a rejeté les tentatives des titulaires de droits d'auteur de prétendre que tout modèle capable de générer de nouveaux écrits susceptibles de concurrencer des œuvres existantes en imitant leurs « thèmes généraux », leurs « arguments de fond » ou leur « grammaire, composition et style » constituait une machine à contrefaçon. Comme le tribunal l'a reconnu à juste titre, la création de modèles d'IA génériques créant de nouvelles œuvres dépasse « tout ce qu'un titulaire de droits d'auteur pourrait légitimement espérer contrôler ».
L'arrêt Bartz a bien d'autres qualités, mais juste au moment où nous le digérions, l'affaire Kadrey c. Meta Platforms est sortie. Malheureusement, cette décision bâcle l'analyse de l'usage équitable.
Un échec en matière d'utilisation équitable
Kadrey est une autre action intentée par des auteurs contre le développeur d'un modèle d'IA, en l'occurrence le chatbot « Llama » de Meta. Les auteurs de l'affaire Kadrey ont demandé au tribunal de statuer que l'usage loyal ne s'appliquait pas.
Une grande partie de l'arrêt Kadrey du juge Vince Chhabria est un dicta : l'avis consacre de nombreux paragraphes à ce qui, selon lui, pourrait justifier une décision en faveur des plaignants auteurs, s'ils avaient pu présenter des faits différents (plutôt que de simples spéculations). Le tribunal statue ensuite en faveur de Meta, car les plaignants n'ont avancé que des spéculations.
Mais elle commet plusieurs erreurs pour parvenir à la bonne issue. En résumé, la décision proclame largement que former l'IA sans acheter une licence d'utilisation de chaque élément du matériel de formation protégé par le droit d'auteur sera « illégal » dans la « plupart des cas ». La Cour a affirmé que l'usage loyal ne s'applique généralement pas aux utilisations de la formation de l'IA, même si la formation est un processus « hautement transformateur », en raison d'hypothétiques scénarios de « dilution du marché » où la concurrence des œuvres générées par l'IA pourrait réduire la valeur des livres utilisés pour former le modèle d'IA.
Cette théorie repose quant à elle sur trois prémisses erronées. Premièrement, le facteur le plus important pour déterminer l'usage loyal est de savoir si l'usage est susceptible de nuire au marché. C'est inexact. Depuis son avis fondateur de 1994 dans l'affaire Cambell c. Acuff-Rose , la Cour suprême a clairement indiqué qu'aucun facteur ne prévaut à lui seul sur l'analyse de l'usage loyal.
Deuxièmement, un développeur d'IA chercherait généralement à entraîner un modèle entièrement sur un certain type d'œuvre, puis à utiliser ce modèle pour générer de nouvelles œuvres du même genre, qui concurrenceraient alors les œuvres sur lesquelles il a été entraîné, de sorte que le marché des œuvres originales serait lésé. Comme le souligne l'arrêt Kadrey , rien ne prouve que Llama ait eu l'intention de faire, ou fasse, quoi que ce soit de ce genre, et la plupart des LLM ne le feront pas pour les raisons mêmes évoquées dans l'arrêt Bartz .
Troisièmement, en droit, le droit d'auteur n'empêche pas la « dilution du marché », sauf si les nouvelles œuvres constituent une contrefaçon. En réalité, l'objectif même du droit d'auteur est d'être un moteur de nouvelles expressions. Si ces nouvelles expressions entrent en concurrence avec des œuvres existantes, il s'agit d'une caractéristique, et non d'un bug.
L'IA de génération suscite des paniques technologiques du type de celles que nous avons déjà observées ; à l'époque comme aujourd'hui, des avis réfléchis sur l'utilisation équitable ont contribué à garantir que le droit d'auteur soit au service de l'innovation et de la créativité. L'IA de génération soulève de nombreuses autres préoccupations sérieuses concernant les pratiques de travail équitables et la désinformation, mais le droit d'auteur n'a pas été conçu pour résoudre ces problèmes. Tenter de forcer le droit d'auteur à jouer ce rôle ne fait que nuire à des utilisations importantes et légales de cette technologie.
Conformément à cette tradition, les tribunaux qui décident de l’utilisation équitable dans d’autres affaires de droits d’auteur sur l’IA devraient se tourner vers Bartz, et non vers Kadrey.
Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2025/06/two-courts-rule-generative-ai-and-fair-use-one-gets-it-right le Thu, 26 Jun 2025 19:22:26 +0000.