Que pense le Garant de Meta qui veut utiliser nos données pour son IA

Que pense le Garant de Meta qui veut utiliser nos données pour son IA

Mark Zuckerberg aimerait utiliser nos contenus Facebook et Instagram pour entraîner son intelligence artificielle mais l'intervention du Centre européen pour les droits numériques a réussi à l'en empêcher pour l'instant. Il s’agit pourtant d’une bataille juridique qui ne fait que commencer. Commentaire de Laura Turini tiré de la newsletter Appunti

Le respect de la vie privée devient un point crucial qui, avec la gestion des droits d’auteur, peut changer le sort de l’intelligence artificielle. La loi sur l'intelligence artificielle, le règlement européen sur l'intelligence artificielle, n'en traite pas, mais fait référence au RGPD (règlement UE 679/2016 sur le traitement des données personnelles), en réitérant que quiconque développe ou utilise des systèmes d'intelligence artificielle doit le respecter. législation, ainsi que bien d’autres.

En pratique, cependant, le respect du RGPD est complexe.

Le règlement européen sur la protection de la vie privée prévoit une série d'obligations pour ceux qui traitent des données personnelles, dont l'une des plus importantes concerne le devoir de fournir des informations sur l'utilisation des données et sur les droits des parties intéressées, y compris le droit de s'opposer au traitement.

En outre, pour que les données soient traitées licitement, il doit exister une base juridique, qui peut être reconnue dans le contrat, l'intérêt légitime, l'obligation légale ou le consentement de l'intéressé.

Dans les trois premiers cas, le consentement de l'intéressé n'est pas requis, puisque la personne qui traite les données le fait pour exécuter un contrat qu'elle a conclu avec la personne physique, car le traitement lui est imposé par la loi, par exemple par exemple à des fins fiscales, ou parce qu'il exerce son intérêt légitime avant de prévaloir sur les droits de l'intéressé.

L’interprétation de l’intérêt légitime est souvent difficile et trop souvent elle est invoquée de manière infondée. En substance, il existe lorsque, en fonction des relations qui existent entre la personne physique et ceux qui traitent ses données, il est légitime d'attendre une certaine utilisation de celles-ci, comme dans le cas d'une entreprise professionnelle qui envoie des informations informatives et non -commercial, communications à ses clients pour les informer de certaines obligations arrivant à expiration.

C'est précisément l'intérêt légitime, invoqué par Meta dans son information, qui est au centre d'une nouvelle bataille juridique promue par l' association NOYB, Centre européen pour les droits numériques , dirigée par Max Schrems, l'activiste autrichien qui avait déjà intenté de nombreuses actions contre plusieurs entreprises, détruisant l'accord Privacy Shield qui permettait l'échange de données entre l'Europe et les États-Unis.

Avec nos données

NOYB a récemment déposé un recours auprès de onze garants de la vie privée en Europe, dont l'Italie, pour demander que soit empêchée l'adoption d'AI Meta, annoncée comme imminente, avec laquelle Mark Zuckerberg entend intégrer des systèmes de renseignement dans ses services artificiel.

Meta AI, lit-on sur le site officiel, est un assistant intelligent, basé sur Meta Llama 3, "capable de raisonnement complexe, de suivre des instructions, de visualiser des idées et de résoudre des problèmes", actuellement disponible uniquement dans certains pays sélectionnés.

En Europe, il n'est pas disponible car Meta a décidé de le suspendre, après avoir suivi les appels de NOYB, en Irlande et au Royaume-Uni, les Garants ont demandé à Meta de suspendre le projet qui inclut non seulement la fourniture du service Meta AI, mais aussi l'utilisation des données de Facebook et d'Instagram pour entraîner le système d'intelligence artificielle.

L'un des sujets de discorde concerne les nouvelles conditions de confidentialité de Meta, annoncées plus tôt ce mois-ci, qui devraient entrer en vigueur le 26 juin, et qui soulignent que les données publiques des utilisateurs qui utilisent ses services seront également utilisées pour la formation de systèmes d'intelligence artificielle, sans la nécessité du consentement des parties intéressées, mais sur la base de l'intérêt légitime de Meta.

La nouvelle politique, qui concernerait environ quatre milliards d'utilisateurs, permettrait à Meta d'utiliser les données des utilisateurs, à partir de 2007, à la seule exception des chats privés, dans des systèmes d'intelligence artificielle, sans préciser clairement le but de cette utilisation.

Dans une interview, Max Schrems a déclaré qu'une telle définition est inacceptable, car Meta doit indiquer expressément l'usage qu'elle en fera et pas simplement indiquer avec quelle technologie ils seront traités.

La question est très complexe, tant d’un point de vue juridique que pratique.

On peut certes discuter de l’exactitude ou non d’une information, mais il est très difficile sur le plan pratique de démontrer qu’un système d’intelligence artificielle est formé sur la base des données personnelles d’une personne en particulier.

Personne ne connaît exactement les données d'entraînement et lorsqu'elles se retrouvent dans la masse de données dont elles sont extraites, plutôt que dans des éléments d'information isolés, des modèles mathématiques, elles sont tellement broyées et digérées qu'elles sont dispersées au cours du processus.

D'un point de vue pratique, la situation est encore plus critique, car les données utilisées sont si nombreuses et collectées sans discernement, qu'il n'est pas possible d'en sélectionner des données génériques, personnelles, sensibles ou particulières, donc si une infraction était identifiée , on risquerait de devoir empêcher tout court la collecte de données. Problème, en quelque sorte, similaire à celui qui se pose concernant les données couvertes par le droit d'auteur.

Ce que dit le bureau du garant

En attendant de connaître la position italienne sur ce point, et avec toutes les limites dues au secret de l'enquête, nous en avons discuté avec l'avocat Guido Scorza, membre du Conseil du Garant de la Vie Privée, et l'un des plus grands experts en matière de l'objet.

Maître Guido Scorza, votre cabinet a été le premier à reconnaître l'intelligence artificielle comme un outil pouvant mettre en danger le respect de la vie privée.

Votre décision concernant ChatGPT du 30 mars 2023 a suscité quelques discussions, mais est ensuite devenue un modèle pour d'autres bureaux.

Aujourd’hui, vous êtes à nouveau confrontés à la relation entre intelligence artificielle et vie privée. Qu'est-ce qui est différent dans les deux cas ?

La question sous-jacente est courante et concerne les conditions dans lesquelles une entité peut traiter les données personnelles de centaines de millions de personnes en Europe et de milliards dans le monde pour entraîner ses algorithmes.

C’est d’ailleurs une problématique qui concerne toutes les « usines d’intelligence artificielle générative » et pas seulement OpenAI et Meta.

Je dirais que l'une des principales différences entre les deux événements réside dans le fait que dans le premier, OpenAI, en l'absence de tout précédent, avait essentiellement ignoré toutes les questions liées à l'application des réglementations européennes sur la vie privée, tandis que dans le second, Meta était a pu profiter de ce qui est apparu dans le contexte de la première affaire et a donc recherché une série de solutions visant à concilier ses besoins commerciaux avec les règles en matière de vie privée.

La question de savoir si l'entreprise de Zuckerberg a réussi est une chose qui devra être évaluée au cours de l'enquête en cours et sur laquelle je ne peux donc rien dire.

Bien entendu, Meta a l'avantage – au moins en ce qui concerne le traitement des données collectées au sein de ses propriétés numériques – de "connaître" les intéressés et d'avoir, au moins, pu leur présenter des informations spécifiques.

Max Schrems, dans son recours, rappelle la décision de la Cour de justice (C-252/21) selon laquelle l'intérêt légitime ne peut pas constituer une base juridique adéquate pour le traitement des données. Qu'en penses-tu?

Un examen des informations suffira-t-il ou sommes-nous confrontés à un problème plus complexe ?

Comme mentionné, je ne peux pas commenter ce cas spécifique. En général, cependant, j'exclus que la question de la légitimité ou non de l'utilisation d'un intérêt légitime pour la formation d'algorithmes puisse être épuisée et résolue par une mise à jour d'une déclaration.

C'est beaucoup plus complexe et il s'agit avant tout de l'évaluation comparative entre l'intérêt – je crois pouvoir dire l'intérêt indiscutable et incontestablement légitime de Meta – et le sacrifice en termes de droits et d'intérêts des centaines de millions d'acteurs européens intéressés à ses plateformes. Le premier l’emporte-t-il vraiment sur le second ?

De plus, se pose dans tous les cas le problème de données particulières qui ne peuvent en aucun cas être traitées sur la base d'un intérêt légitime.

Et même si l’on veut conclure par l’affirmative, les intéressés peuvent-ils compter sur l’exercice effectif des droits – à commencer par le droit d’opposition – que le RGPD leur reconnaît ? Il est certes légitime d’en douter.

Meta a prévu que les utilisateurs peuvent exercer un droit de refus concernant l'utilisation de leurs données personnelles. Est-ce un mécanisme qui peut fonctionner ?

C’est en principe ce que prévoit la législation européenne lorsque le traitement de données personnelles a été valablement initié sur la base d’un intérêt légitime.

Concrètement, voulant et devant éviter de parler du cas concret, je crois qu'il convient de considérer deux aspects : le premier est que la reconnaissance du droit d'opposition, si la base juridique de l'intérêt légitime est jugée insuffisante, est évidemment inadaptée remédier à la violation et la deuxième est que, au cours de l'enquête, il faudra nécessairement évaluer l'effectivité et l'étendue du droit d'opposition que Meta reconnaît aux parties intéressées.

Meta affirme ne pas être en mesure de distinguer les données qu'elle utilise pour la formation et ne peut donc pas séparer les données à usage libre des données couvertes par des droits ou des données personnelles, qu'elles soient générales ou spécifiques.

Si Meta n’est pas autorisée à utiliser les données personnelles, ne risque-t-il pas de bloquer le développement des systèmes d’intelligence artificielle ? Quelle solution envisagez-vous comme possible, même « de iure condendo » ?

Certes oui, le risque est concret par rapport au cas Meta, comme par rapport au cas OpenAI et, bien entendu, à tous les autres traitements similaires en cours.

En toute honnêteté, je pense que le problème ne peut pas être résolu par les autorités européennes de protection des données personnelles simplement en interprétant et en appliquant les règles actuelles, mais qu’il aurait nécessité et continue de nécessiter une intervention législative.

Il y a un choix politique à faire. Les solutions, du point de vue de iure condendo , peuvent être différentes.

Personnellement, si l'on souhaitait aborder la question au niveau législatif, j'envisagerais la possibilité de considérer l'entraînement des algorithmes – et donc les traitements liés à cette activité – comme étant d'intérêt public, probablement en associant tels une déclaration avec un système de limites et de conditions, y compris un mécanisme de licences obligatoires et/ou d'autres solutions similaires pour la répartition des bénéfices, des avantages et des richesses, car l'idée de considérer une activité qui enrichit quelques-uns et augmente les oligopoles est de L'intérêt public tout court me semble déjà difficile d'exister sans rien reconnaître aux personnes dont les données personnelles sont utilisées et à la société dans son ensemble.

Malheureusement, ni la loi sur l’IA, ni le projet de loi italien sur l’intelligence artificielle en discussion au Sénat ne traitent de ce problème et n’apportent pas de solutions.

Nous attendons de lire la décision du Garant qui pourrait, une fois de plus, nous réserver des surprises et proposer des mesures correctrices.

(Extrait de la newsletter Notes de Stefano Feltri : inscrivez-vous ici )


Cet article est une traduction automatique de la langue italienne d’un article publié sur le magazine Début Magazine à l’URL https://www.startmag.it/innovazione/cosa-pensa-il-garante-di-meta-che-vuole-usare-i-nostri-dati-per-la-sua-ia/ le Sat, 29 Jun 2024 05:23:55 +0000.