Le code généré par l’IA est-il une zone grise juridique ou une propriété claire ?

Les développeurs qui écrivent du code depuis des décennies pourraient bientôt se retrouver dans une situation délicate. Nous savons que l’IA peut écrire du code ou des morceaux de code et qu’elle est très efficace si un développeur divise le processus en morceaux. Cela permet de gagner du temps et de réduire une grande partie du travail fastidieux traditionnellement impliqué dans l’écriture de code.

Mais à qui appartient le code généré par l’intelligence artificielle ?

C’est la question à laquelle beaucoup peinent à trouver une réponse adéquate. Lorsque la question est valable, elle n’a pas de réponse simple et directe.

Mais les choses sont plus complexes qu’on ne le pense. Il existe de nombreux éléments impliqués sur lesquels les développeurs ne peuvent pas dormir. Par exemple, si le code contient des secrets d’entreprise, le risque est qu’ils aient été partagés avec OpenAI, Microsoft, Google ou toute entreprise dont vous avez utilisé le modèle d’IA.

C'est une situation probable. Sur une candidature, vous êtes au travail. Pour l’essentiel, cette application est votre effort. Vous avez écrit la majeure partie du code, créé la logique métier et spécifié l'interface utilisateur. Cependant, vous avez écrit certains modules en utilisant GPT-4, Microsoft Copilot, Google Gemini ou Anthropic Claude et intégré le code résultant dans votre application.

À qui appartient le code produit par l’intelligence artificielle ? Et le programme dans son ensemble perd-il toutes les revendications de propriété que vous pourriez avoir faites en raison de l'inclusion de ce code ?

Considérations relatives aux propriétés des produits complexes

Les professionnels spécialisés dans la sécurité des données et la propriété intellectuelle soulignent que le droit d’auteur et le droit des contrats sont deux disciplines juridiques différentes dotées de cadres juridiques distincts.

Une chose sur laquelle le système juridique a été très clair à l’ère de l’intelligence artificielle est de savoir à qui appartient le contenu créé par l’IA : parce qu’il n’a pas été développé par un humain, il ne peut pas être protégé par le droit d’auteur.

Il n’appartient pas à l’IA, ni aux personnes qui l’ont entraînée, ni à la personne qui lui a demandé de produire ces informations. Il n'est pas possible d'avoir un propriétaire pour ce code.

L'un de ces codes a-t-il un droit d'auteur ? Ou bien chaque logiciel que nous écrivons de nos jours est-il si complètement défectueux qu'il ne peut plus être défendu en tant qu'élément de propriété intellectuelle protégé par le droit d'auteur ? Dans une décision récente, la conservation d’une collection de textes générés par l’IA a abouti à l’octroi du droit d’auteur sur la collection à l’auteur.

Quelles sont les implications pour les programmeurs dans un scénario où la ligne suivante pourrait être créée par l’IA et non protégée, alors que la ligne précédente aurait pu être écrite par un humain et donc protégée ? C'est une question avec laquelle tout avocat sera d'accord.

Cette boîte de Pandore n’a pas encore été résolue devant les tribunaux. Les entreprises commerciales ne peuvent absolument pas se permettre de perdre l’efficacité acquise grâce à ces modèles d’IA. Elles peuvent donc être prêtes à éviter tout signal d’alarme émis par les équipes juridiques.

Répondre aux exigences des clients à la vitesse de l’éclair restera une pratique jusqu’à ce qu’un lourd procès détermine la propriété et le statut des droits d’auteur de l’IA générative.