La politique en matière d’IA générative doit être précise, prudente et pratique : comment éviter le battage médiatique et repérer les risques potentiels dans la nouvelle législation

La politique en matière d’IA générative doit être précise, prudente et pratique : comment éviter le battage médiatique et repérer les risques potentiels dans la nouvelle législation

L'anxiété suscitée par l'IA générative augmente presque aussi vite que l'utilisation de la technologie elle-même, alimentée par la rhétorique dramatique de personnalités éminentes de la technologie, du divertissement et de la sécurité nationale. Quelque chose , suggèrent-ils, doit être fait pour éviter un certain nombre de catastrophes , de la mort de l'artiste à la naissance de nouveaux seigneurs robots .

Étant donné le ton souvent hyperbolique , il pourrait être tentant (et correct) de rejeter une grande partie de cela comme la panique morale habituelle que les nouvelles technologies provoquent ou le battage médiatique intéressé. Mais il y a aussi des préoccupations légitimes dans le mélange, qui peuvent nécessiter certaines règles de la route. Si tel est le cas, les décideurs politiques devraient répondre à certaines questions importantes avant d'élaborer ou de transmettre ces règles. Comme toujours, le diable est dans les détails, et EFF est là pour vous aider à les trier afin d'identifier des stratégies solides et des dommages collatéraux potentiels. 

Premièrement , les décideurs politiques devraient se demander si la nouvelle législation est à la fois nécessaire et correctement ciblée. L'IA générative est une catégorie d'outils à usage général avec de nombreuses utilisations précieuses. Pour chaque image qui déplace une commande potentielle à faible coût pour un artiste en activité, il y en a d'innombrables autres qui ne déplacent la vie de personne – des images créées par des personnes s'exprimant ou ajoutant de l'art à des projets qui n'auraient tout simplement pas été illustrés. N'oubliez pas : l'impact majeur de la technologie de traduction automatique n'a pas été de déplacer les traducteurs, mais de créer des moyens simples et gratuits de lire des tweets et des pages Web dans d'autres langues alors qu'une personne ne saurait autrement ce qui se dit. 

Parfois, nous n'avons pas besoin d'une nouvelle loi – nous devons simplement faire un meilleur travail avec celles que nous avons déjà

Mais une grande partie de la rhétorique que nous entendons ignore ces avantages et se concentre uniquement sur les utilisations potentiellement nocives, comme si l'outil lui-même était le problème (plutôt que la façon dont les gens l'utilisent). Le résultat ironique : une occasion manquée d'adopter et d'appliquer des lois qui peuvent réellement remédier à ces préjudices. 

Par exemple, si les décideurs politiques s’inquiètent des violations de la vie privée découlant de la collecte et de l’utilisation d’images et d’informations personnelles dans l’IA générative, se concentrer sur l’utilisation plutôt que sur l’outil pourrait conduire à une loi plus large : une législation réelle et complète sur la vie privée qui couvre toutes les entreprises . surveillance et utilisation des données. Idéalement, cette loi limiterait à la fois les atteintes à la vie privée de l'IA (formes génératives et autres) et serait suffisamment flexible pour se tenir au courant des nouveaux développements technologiques.

Mais parfois, nous n'avons pas besoin d'une nouvelle loi – nous devons juste faire un meilleur travail avec celles que nous avons déjà. Si les législateurs s'inquiètent de la désinformation, par exemple, ils pourraient commencer par revoir (et, si nécessaire, renforcer) les ressources pour l'application des lois existantes sur la fraude et la diffamation. Il est utile que les tribunaux aient passé des décennies à évaluer ces protections juridiques et à les mettre en balance avec des intérêts opposés (comme la liberté d'expression); cela n'a guère de sens de remettre en question ces questions pour une technologie spécifique. Et là où les réglementations existantes sont vraiment inefficaces dans d'autres contextes, les promoteurs doivent expliquer pourquoi elles seront plus efficaces contre les abus de l'IA générative.

Deuxièmement , les dommages que la proposition est censée atténuer sont-ils documentés ou encore spéculatifs ? Par exemple, pendant des années, les législateurs (et d'autres) ont sonné l'alarme concernant les effets sur la santé mentale de l'utilisation des médias sociaux. Mais il y a peu de recherches pour le prouver, ce qui rend difficile l'adaptation d'une réponse réglementaire. Dans d'autres domaines, tels que le débat sur le cryptage, nous voyons comment les préoccupations hypothétiques ou non prouvées des forces de l'ordre, soulevées sous le drapeau de la «sécurité en ligne », sont utilisées pour justifier de saper les protections essentielles à l'expression et à la vie privée en ligne. Pour créer des lois fondées sur des preuves, les décideurs doivent examiner les recherches, parler aux experts et à la société civile ( pas seulement aux PDG ) et faire attention à l'huile de serpent de l'IA ou à la pensée magique . 

Nous ne devons pas laisser les hyperboles et les gros titres sur l'avenir de l'IA générative nous empêcher de remédier aux dommages causés aujourd'hui

Troisièmement et connexement, dans quelle mesure une nouvelle proposition englobe-t-elle les préjudices spéculatifs au détriment de la résolution des préjudices existants pratiques et bien documentés ? Des chercheurs réfléchis et des groupes de la société civile tirent la sonnette d'alarme depuis plus d'une décennie sur les risques de la police prédictive, l'utilisation par le gouvernement des systèmes de reconnaissance faciale et la prise de décision biaisée en matière de logement, d'embauche et d'avantages sociaux. Nous ne devons pas laisser les hyperboles et les gros titres sur l'avenir de l'IA générative nous empêcher de remédier aux dommages causés aujourd'hui. Beaucoup peut et doit être fait pour assurer la transparence, donner aux communautés les moyens de rejeter ou de sélectionner des technologies, s'engager dans une évaluation d'impact et créer une responsabilité et des recours pour ceux qui souffrent déjà de ces préjudices. Les personnes sérieuses pour s'assurer que l'IA générative sert l'humanité ont déjà un programme complet qui ne devrait pas être balayé à cause du battage médiatique des riches. 

Quatrièmement , la réglementation renforcera-t-elle les dynamiques de pouvoir et les oligopoles existants ? Lorsque Big Tech demande à être réglementée, nous devons nous demander si ces réglementations pourraient effectivement cimenter le pouvoir de Big Tech. Par exemple, nous avons vu plusieurs propositions qui permettraient aux régulateurs d'examiner et d'autoriser les modèles, programmes et services d'IA. Les licences gouvernementales sont le genre de fardeau que les grands acteurs peuvent facilement supporter ; des concurrents plus petits et des organisations à but non lucratif, pas tellement. En effet, cela pourrait s’avérer prohibitif pour les développeurs open source indépendants. Nous ne devrions pas supposer que les gens qui ont construit ce monde peuvent résoudre les problèmes qu'ils ont contribué à créer ; Si nous voulons des modèles d'IA qui ne reproduisent pas les préjugés sociaux et politiques existants, nous devons laisser suffisamment d'espace pour que de nouveaux acteurs puissent les construire.

Cinquièmement , le règlement proposé est-il suffisamment souple pour s'adapter à une technologie en évolution rapide? La technologie change souvent beaucoup plus vite que la loi, et ces changements peuvent être difficiles à prévoir. Par conséquent, la règle apparemment sensée d'aujourd'hui peut facilement devenir le point faible de la sécurité de demain. Pire encore, le verrouillage de technologies spécifiques peut empêcher l'épanouissement de technologies nouvelles et innovantes et, encore une fois, donner aux gagnants d'aujourd'hui la possibilité d'empêcher de futurs concurrents de nous offrir un meilleur outil ou produit. 

Sixièmement, la loi atténuera-t-elle réellement le mal qu'elle cible ? Cette question est trop souvent négligée. Par exemple, plusieurs propositions ont été faites pour obliger les utilisateurs et les développeurs de l'IA générative à « filigraner » les œuvres qu'ils produisent. En supposant que cela soit techniquement possible (cela pourrait être plus difficile à faire pour la musique, par exemple, que pour les images), l'histoire suggère que cela ne sera pas très efficace contre les utilisations qui pourraient nous inquiéter le plus. Le filigrane « consultatif » par défaut, tel que l'insertion automatique par DALL-E de quelques carrés de couleur dans le coin d'une image, peut aider à indiquer qu'elle a été générée par l'IA, afin que la personne qui la partage ne trompe pas involontairement. Mais ces filigranes peuvent facilement être supprimés par les fraudeurs plus sophistiqués que nous voudrions vraiment dissuader. Et le filigrane « contradictoire », par lequel le modèle d'IA génère un filigrane si profondément intégré dans la sortie qu'il ne peut pas être supprimé, a presque toujours été vaincu dans la pratique . Bref, le filigrane peut avoir quelques avantages mais c'est forcément un jeu du chat et de la souris. Si nous visons des préjudices graves par des personnes motivées, nous avons besoin de stratégies qui fonctionnent.

Tout comme nous ne tolérerions pas une loi permettant au gouvernement de contrôler l'accès et l'utilisation des presses à imprimer, nous devrions nous soucier de donner à un régulateur le pouvoir de contrôler l'accès aux outils d'IA générative.

Enfin, comment cela affecte-t-il d'autres intérêts publics (au-delà des problèmes de concurrence évoqués ci-dessus) ? Par exemple, il y a beaucoup de rhétorique autour des risques d'autoriser le développement d'IA open source par rapport aux systèmes fermés où une autorité centrale peut contrôler ce qui peut et ne peut pas être fait par les utilisateurs. Nous avons déjà vu ce film les systèmes ouverts sont souvent attaqués avec cette affirmation, en particulier par ceux qui profitent d'un monde fermé. Même en prenant l'inquiétude au pied de la lettre, cependant , il est difficile de voir comment le gouvernement peut réglementer l'utilisation et le développement sans restreindre la liberté d'expression et le droit d'accéder à de nouvelles informations et à l'art . Aux États-Unis, les tribunaux reconnaissent depuis longtemps que le code est un discours, et la surveillance de son développement peut aller à l'encontre du premier amendement. Plus généralement, tout comme nous ne tolérerions pas une loi permettant au gouvernement de contrôler l'accès et l'utilisation des presses à imprimer, nous devrions nous soucier de donner à toute autorité centrale le pouvoir de contrôler l'accès aux outils d'IA générative et, vraisemblablement, de décider à l'avance quels types d'expression que ces outils peuvent être autorisés à générer. De plus, placer des contrôles sur le développement open source dans certains pays peut simplement garantir que les développeurs d'autres pays ont de meilleures opportunités d'apprendre et d'innover.

D'autres propositions conçues pour assurer la rémunération des créateurs dont les œuvres sont incluses dans les données de formation, comme un nouveau régime de licences de droit d'auteur, pourraient rendre la recherche socialement valable basée sur l'apprentissage automatique et même l'exploration de données d'une complexité et d'un coût prohibitifs (en supposant qu'un tel régime soit même administrativement possible compte tenu des milliards d'œuvres susceptibles d'être utilisées et de la difficulté de tracer ces utilisations). Nous avons une grande sympathie pour les créateurs qui luttent pour être correctement rémunérés pour leur travail. Mais nous devons chercher des moyens d'assurer une rémunération équitable qui ne limite pas la possibilité pour toute l'humanité de bénéficier d'utilisations secondaires précieuses. Les négociations contractuelles de la Writers Guild of America-West avec les studios de cinéma offrent un modèle : le matériel généré par l'IA ne peut pas être utilisé pour remplacer un écrivain humain. Plus précisément, le matériel généré par l'IA ne peut en aucun cas être qualifié de matériel source pour l'adaptation, et si un studio souhaite utiliser un script généré par l'IA, il ne peut y avoir aucun auteur crédité et, par conséquent, aucun droit d'auteur. Dans un monde où les studios gardent jalousement les droits sur leur travail, c'est une pilule empoisonnée majeure. Selon cette proposition, les studios doivent choisir entre le coût initial de payer un écrivain ce qu'il vaut et le coût final de ne pas détenir un droit d'auteur sur l'œuvre finale.

Ce sont des questions que nous devrions poser à la plupart des législations, dans le cadre d'une analyse d'impact approfondie. Mais ils sont particulièrement pressants ici, où les décideurs politiques semblent désireux de légiférer rapidement, les principaux acteurs l'invitent et beaucoup de personnes concernées ne sont pas à la table. Là où il existe de réels risques pour le développement de l'IA générative et de vraies raisons pour lesquelles les gens de divers secteurs se sentent mal utilisés et ignorés par les développeurs, il est encore plus important que les législateurs fassent les choses correctement . 


Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2023/07/generative-ai-policy-must-be-precise-careful-and-practical-how-cut-through-hype le Fri, 07 Jul 2023 16:18:46 +0000.