Même X ne pourra pas utiliser nos données personnelles pour entraîner son IA

Même X ne pourra pas utiliser nos données personnelles pour entraîner son IA

Après Meta de Mark Zuckerberg, X d'Elon Musk tentait également d'entraîner son système d'intelligence artificielle Grok avec les données personnelles des utilisateurs mais grâce aux plaintes de huit pays européens, dont l'Italie, il a été stoppé. Tous les détails et avis d’experts sur les défis liés à la vie privée à l’ère de l’IA

En juin, l'initiative de Meta d'utiliser les données personnelles des utilisateurs de Facebook et Instagram pour entraîner son intelligence artificielle (IA) a fait sensation , mais a ensuite été freinée par l'intervention du Centre européen pour les droits numériques (également connu sous le nom de None of your business). , Noyb).

Désormais, suite aux plaintes de huit pays européens, dont l'Italie, X, qui voulait agir de la même manière pour former Grok, l'IA d'Elon Musk , a également été stoppé.

LA DÉCISION DE L'AUTORITÉ IRLANDAISE

La Commission irlandaise de protection des données (DPC) a annoncé que son système d'intelligence artificielle Grok.

« L’accord – explique la DPC dans une note – a été conclu dans le cadre d’une demande urgente de la Haute Cour présentée par la DPC en vertu de l’article 134 de la loi sur la protection des données de 2018. C’est la première fois qu’une autorité l’agence de contrôle principale prend de telles mesures et c’est la première fois que la DPC cherche à utiliser ses pouvoirs en vertu de l’article 134″.

L'ART. 134 DE LA LOI SUR LA PROTECTION DES DONNÉES

Cet article de la loi sur la protection des données de 2018 permet à la Commission, si elle estime qu'il existe un besoin urgent d'agir pour protéger les droits et libertés des personnes concernées, de demander à la Haute Cour d'ordonner au responsable du traitement de suspendre , limiter ou interdire le traitement des données personnelles.

"L'un de nos rôles clés, en tant que régulateur indépendant et organisation fondée sur les droits, est de garantir le meilleur résultat pour les personnes concernées et les développements actuels nous aideront à continuer à protéger les droits et libertés des utilisateurs X dans l'UE et l'EEE", a déclaré Des Hogan, commissaire et président du DPC. « Nous continuerons à collaborer avec tous les responsables du traitement des données pour garantir que les droits de nos citoyens en vertu de la Charte des droits fondamentaux de l'UE et du RGPD soient respectés. »

POLITIQUE DE CONFIDENTIALITÉ OPAQUE ET PROCÉDURES CUTLOUS

Comme dans le cas de Meta , parmi les principales violations du RGPD attribuées à

« La politique de confidentialité de X – écrit Sialdone – n'informe pas suffisamment les utilisateurs sur l'utilisation de leurs données pour la formation des systèmes d'apprentissage automatique. Les lignes directrices du Comité européen de la protection des données (EDPB) 4/2019 soulignent que le traitement des données doit être exempt de tromperie et que toutes les options doivent être présentées de manière neutre et compréhensible.

Le droit d'opposition de l'utilisateur concernant ses données personnelles "a également été traité de manière complexe et inefficace" car "il n'existe pas de formulaire spécifique pour exercer ce droit et l'utilisateur doit répondre à un email de confirmation pour ouvrir un ticket". « Ce processus fastidieux – déclare Scialdone – viole le RGPD, qui exige que l'exercice des droits des parties intéressées soit facilité ».

À ces problèmes critiques s’ajoutent le non-respect du principe de minimisation et l’insuffisance de la base juridique choisie.

LE DÉFI DE LA CONFIDENTIALITÉ À L’ÈRE DE L’IA

Comme l’observe l’expert d’Euroconsumers, cette histoire « met en évidence les défis toujours croissants liés à la gestion des données personnelles à l’ère de l’intelligence artificielle, soulignant l’importance d’une plus grande transparence et responsabilité de la part des entreprises technologiques ».

Il s'agit d'une bataille « cruciale » car « l'utilisation inappropriée de données personnelles pour la formation à l'IA sans garanties adéquates peut sérieusement compromettre les droits et libertés des utilisateurs ». Il suffit de dire que le traitement des données personnelles des utilisateurs italiens par X £ à lui seul concerne potentiellement 10 % de la population nationale".

Même l'avocate Laura Turini, experte en droit des brevets, des marques, du droit d'auteur et des nouvelles technologies, s'exprimant sur l'affaire Meta , avait souligné qu'à l'ère de l'intelligence artificielle, le respect de la vie privée, ainsi que la gestion des droits d'auteur, deviennent un point crucial. Il s’agit cependant d’une bataille juridique qui vient de commencer et la question est très complexe, tant du point de vue juridique que pratique.

« Nous pouvons certainement discuter de l'exactitude ou non d'une information, mais il est très difficile sur le plan pratique de démontrer qu'un système d'intelligence artificielle est formé sur la base des données personnelles d'une personne en particulier – écrit Turini dans le bulletin d'information Appunti di. Stefano Feltri -. Personne ne connaît exactement les données d'entraînement et lorsqu'elles se retrouvent dans la masse de données dont elles sont extraites, plutôt que dans des éléments d'information isolés, des modèles mathématiques, elles sont tellement broyées et digérées qu'elles sont dispersées dans le processus.

« D'un point de vue pratique – poursuit-il –, la situation est encore plus critique, car les données utilisées sont si nombreuses et collectées de manière indiscriminée, qu'il n'est pas possible d'en sélectionner des données génériques, personnelles, sensibles ou particulières. , donc si une infraction était détectée, il y aurait le risque de devoir empêcher tout court la collecte de données".


Cet article est une traduction automatique de la langue italienne d’un article publié sur le magazine Début Magazine à l’URL https://www.startmag.it/innovazione/nemmeno-x-potra-usare-i-nostri-dati-personali-per-addestrare-la-sua-ia/ le Sun, 11 Aug 2024 14:03:52 +0000.