Le nouvel outil « Nightshade » défie la technologie AI Text-to-Image

La technologie d'IA générative, telle que ChatGPT d'OpenAI, a fait de grands progrès dans le traitement du langage naturel. Cependant, ces modèles d’IA s’appuient sur des ensembles de données massifs récupérés sur le Web, ce qui suscite des inquiétudes parmi les artistes et photographes dont les œuvres sont utilisées sans autorisation ni compensation.

Artistes et photographes contre l'intelligence artificielle générative

Les outils d'IA générative peuvent créer des images à partir d'instructions textuelles, mais s'appuient sur des images en ligne récupérées pour la formation. Cela a incité les artistes et les photographes à exprimer leur frustration face au fait que leur travail créatif soit utilisé sans consentement. Ils cherchent des moyens de protéger leurs droits de propriété intellectuelle.

Nightshade : un outil pour confondre les modèles d'IA

Une équipe de chercheurs a développé un outil baptisé « Nightshade » pour lutter contre ce problème. Nightshade est conçu pour perturber les modèles de formation de l'IA en introduisant des pixels invisibles dans les œuvres d'art avant qu'elles ne soient téléchargées sur le Web. Ce processus « empoisonne » les données d’entraînement, amenant les modèles d’IA à générer des images inexactes en réponse aux requêtes.

Implications pour les modèles d'intelligence artificielle

Le MIT Technology Review rapporte que l'utilisation de Nightshade pourrait potentiellement nuire aux futures itérations de modèles d'IA générateurs d'images tels que DALL-E, Midjourney et Stable Diffusion. Ces modèles pourraient produire des résultats dans lesquels les chiens deviendraient des chats, les voitures deviendraient des vaches, et bien plus encore. La recherche derrière Nightshade a été évaluée par des pairs, soulignant son importance.

Équilibrer le pouvoir : artistes et entreprises technologiques

Nightshade offre une lueur d'espoir aux artistes qui tentent de protéger leurs créations. Ben Zhao, professeur à l'Université de Chicago, qui a dirigé l'équipe de recherche, suggère que cet outil pourrait remettre l'équilibre du pouvoir entre les mains des créateurs de contenu. Il sert d’avertissement aux entreprises technologiques qui ignorent les droits d’auteur et de propriété intellectuelle.

L'ampleur du problème

Les grands modèles d’IA utilisent des ensembles de données constitués de milliards d’images, ce qui rend l’impact des images empoisonnées significatif. Plus les images empoisonnées sont intégrées dans ces modèles, plus elles provoqueront de perturbations, remodelant potentiellement le paysage de l’IA.

Collaboration open source et utilisation éthique

L'équipe derrière Nightshade prévoit de le publier en tant qu'outil open source, invitant les autres à affiner et à améliorer son efficacité. Ils soulignent que Nightshade devrait être considéré comme un dernier recours pour les créateurs de contenu confrontés à des grattoirs Web qui ignorent leurs droits.

Les défis de la protection des droits des artistes

OpenAI, le créateur de DALL-E, a récemment commencé à autoriser les artistes à supprimer leur propre travail de leurs données de formation. Cependant, le processus a été critiqué comme étant onéreux et oblige les artistes à soumettre des demandes individuelles pour chaque image qu'ils souhaitent supprimer. Simplifier ce processus de suppression pourrait décourager les artistes de se tourner vers des outils comme Nightshade, ce qui pourrait avoir des répercussions à long terme pour les développeurs d'IA.

Alors que la bataille entre les artistes cherchant à protéger leurs droits de propriété intellectuelle et les développeurs d’IA qui forment leurs modèles s’intensifie, des outils comme Nightshade pourraient devenir une arme vitale pour les créateurs de contenu. L’utilisation éthique de l’IA et le respect des droits d’auteur deviennent de plus en plus importants dans le paysage en évolution de l’IA.