Microsoft exhorte le Congrès américain à lutter contre les deepfakes générés par l’IA

Microsoft a appelé le Congrès à adopter une nouvelle législation contre les deepfakes générés par l'IA. Brad Smith, vice-président et président de Microsoft, a souligné l'urgence pour les législateurs de s'attaquer à la menace croissante de la technologie deepfake.

Dans un récent article de blog , Smith a souligné l'importance d'adapter les lois pour lutter contre la fraude par deepfake et empêcher son exploitation. Selon Smith, il devrait y avoir une loi qui puisse être utilisée pour accuser les escroqueries et les fraudes liées aux deepfakes.

Microsoft propose une loi fédérale sur la fraude par deepfake

Selon le rapport de Microsoft, plusieurs interventions juridiques peuvent être prises pour empêcher l'utilisation abusive de la technologie deepfake. L’une des suggestions est de créer une « loi fédérale sur la fraude par deepfake ». Cette nouvelle loi abordera à la fois les dimensions civiles et pénales de la fraude aux contenus synthétiques et pourrait donner lieu aux mesures suivantes : poursuites pénales, saisies civiles et injonctions.

Le rapport soutient également l’exigence d’une identification sommaire du contenu. En réglementant l’utilisation d’outils avancés de provenance, le public pourrait alors apprécier l’origine du contenu qu’il reçoit en ligne. Ceci est important pour la crédibilité des informations numériques et pour stopper la propagation des fausses nouvelles.

« Le Congrès devrait exiger des fournisseurs d’IA qu’ils utilisent des outils de provenance de pointe pour étiqueter le contenu synthétique. Cela est essentiel pour instaurer la confiance dans l’écosystème de l’information et aidera le public à mieux comprendre si le contenu est généré ou manipulé par l’IA.

Brad Smith

De plus, Microsoft suggère de modifier les lois actuelles sur l'exploitation des enfants et les images explicites non consensuelles pour couvrir les images produites par l'intelligence artificielle. Cela garantirait que les cadres juridiques soient en phase avec les évolutions technologiques afin de protéger même les groupes de personnes les plus vulnérables.

Le Sénat américain a récemment pris des mesures à cet égard en adoptant un projet de loi ciblant les deepfakes sexuellement explicites. Cette nouvelle loi permet aux victimes de deepfakes d’IA sexuellement explicites et non consensuels de poursuivre les créateurs du contenu.

La FCC dit « non » aux appels automatisés vocaux de l'IA

Microsoft a également réagi à l'utilisation abusive de l'intelligence artificielle et a renforcé les mesures de sécurité sur ses produits. La société a récemment amélioré son créateur d'images Designer AI suite à une vulnérabilité qui a été exploitée pour produire des images obscènes de célébrités. Smith a déclaré que le secteur privé doit prendre des mesures pour garantir que l’intelligence artificielle ne soit pas utilisée à mauvais escient, et qu’il appartient aux entreprises technologiques de garantir que les utilisateurs ne soient pas lésés.

La FCC a déjà pris des mesures contre l’utilisation abusive de l’IA en interdisant l’utilisation de la voix de l’IA dans les appels automatisés. Cependant, l’IA générative s’améliore de plus en plus dans la génération de faux sons, images et vidéos. Ce problème a été récemment exacerbé par une vidéo deepfake de la vice-présidente américaine Kamala Harris, qui a circulé sur les réseaux sociaux et illustre le danger croissant de la technologie deepfake.

D'autres organisations à but non lucratif, telles que le Centre pour la démocratie et la technologie (CDT), sont également impliquées dans la lutte contre les abus des deepfakes. Comme l’a souligné Tim Harper, analyste politique principal du CDT, l’année 2024 marque un tournant critique pour l’IA dans les élections, et les gens doivent se préparer. La résistance actuelle aux deepfakes est une première forme de ce qui pourrait être une lutte prolongée contre la manipulation technologique.