Nos principes de politique de l’UE: contrôles des utilisateurs

Nos principes de politique de l'UE: contrôles des utilisateurs

Alors que l'UE se prépare à une réforme majeure de la réglementation clé de l'Internet, nous introduisons les principes qui guideront notre travail politique concernant la loi sur les services numériques (DSA). Nous pensons que le DSA est une opportunité clé pour changer Internet pour le mieux; remettre en question le paradigme de capter l'attention des utilisateurs qui façonne si fondamentalement nos environnements en ligne, et restaurer l'autonomie et le contrôle des utilisateurs. Dans cet article, nous présentons des principes politiques qui visent à renforcer l'autodétermination informationnelle des utilisateurs et à promouvoir ainsi des communautés en ligne plus saines qui permettent un discours délibératif.

Une chance de réinventer la réglementation des plateformes

Dans quelques mois, la Commission européenne présentera sa proposition très attendue de loi sur les services numériques , la réforme la plus importante de la réglementation des plates-formes européennes depuis deux décennies. La loi, qui modernisera l'épine dorsale de la législation européenne sur Internet – la directive sur le commerce électronique – définira de nouvelles responsabilités et règles pour les plateformes en ligne.

Le FEP soutient l'objectif de la Commission de promouvoir une société numérique inclusive, juste et accessible . Nous pensons que donner aux utilisateurs plus de transparence et d'autonomie pour comprendre et façonner les forces qui déterminent leurs expériences en ligne est essentiel pour atteindre cet objectif. Actuellement, il existe une asymétrie significative entre les utilisateurs et les puissantes plateformes de contrôle d'accès qui contrôlent une grande partie de notre environnement en ligne. À l'aide d'outils algorithmiques opaques, les plates-formes distribuent et organisent du contenu, collectent de grandes quantités de données sur leurs utilisateurs et les inonder de publicités ciblées. Alors que les plates-formes acquièrent (et monétisent) une compréhension approfondie de leurs utilisateurs, tant au niveau individuel que collectif, les utilisateurs ne savent pas comment leurs données sont collectées, exploitées à des fins commerciales et exploitées pour façonner leurs environnements en ligne. Non seulement les utilisateurs ne sont pas informés des algorithmes complexes qui régissent leur discours et leurs actions en ligne; Les plates-formes formulent et modifient également unilatéralement les directives communautaires et les conditions de service, souvent sans même informer les utilisateurs des changements pertinents.

Le DSA est une chance cruciale de consacrer l'importance du contrôle des utilisateurs et de pousser les plateformes à être plus responsables envers le public. Mais il y a aussi un risque que la loi sur les services numériques suive les traces des récentes évolutions réglementaires en Allemagne et en France. Le NetzDG allemand et le projet de loi français Avia (que nous avons contribué à faire tomber devant les tribunaux) montrent une tendance inquiétante dans l'UE à forcer les plateformes à contrôler le contenu des utilisateurs sans contrebalancer ces nouveaux pouvoirs avec plus d'autonomie, de choix et de contrôle des utilisateurs.

L'EFF travaillera avec les institutions de l'UE pour lutter pour les droits des utilisateurs, les garanties procédurales et l' interopérabilité tout en préservant les éléments qui ont fait le succès de la réglementation européenne de l'Internet: responsabilité limitée pour les plateformes en ligne pour le contenu généré par les utilisateurs et interdiction claire des obligations de filtrage et de surveillance .

Principe 1: Donner aux utilisateurs le contrôle du contenu

De nombreux services comme Facebook et Twitter présentaient à l'origine une liste strictement chronologique des publications des amis des utilisateurs. Au fil du temps, la plupart des grandes plates-formes ont échangé cette présentation chronologique contre des algorithmes plus complexes (et opaques) qui ordonnent, organisent et distribuent du contenu, y compris la publicité et d'autres contenus promus. Ces algorithmes, déterminés par la plateforme, ne sont pas nécessairement centrés sur la satisfaction des besoins des utilisateurs, mais poursuivent généralement le seul objectif de maximiser le temps et l'attention que les gens consacrent à un site Web donné. Les publications avec plus d '«engagement» sont prioritaires, même si cet engagement est motivé par des émotions fortes comme la colère ou le désespoir provoqués par le message. Alors que les utilisateurs peuvent parfois revenir au flux chronologique, la conception des interfaces des plates-formes les incite souvent à revenir en arrière. Les interfaces qui induisent en erreur ou manipulent les utilisateurs, y compris les « motifs sombres », enfreignent souvent les principes fondamentaux des lois européennes sur la protection des données et devraient être traitées dans la loi sur les services numériques, le cas échéant.

Les outils algorithmiques des plates-formes tirent parti de leur connaissance intime de leurs utilisateurs, assemblées à partir de milliers de points de données apparemment sans rapport. De nombreuses inférences tirées de ces données semblent inattendues pour les utilisateurs: les plates-formes ont accès à des données qui remontent plus loin que la plupart des utilisateurs ne le pensent et sont capables de tirer des conclusions à la fois du comportement individuel et collectif. Des hypothèses sur les préférences des utilisateurs sont donc souvent faites en faisant des inférences à partir de points de données apparemment sans rapport. Cela peut façonner (et souvent limiter) la manière dont les utilisateurs peuvent interagir avec le contenu en ligne et peut également amplifier la désinformation et la polarisation de manière à compromettre l'échange transparent et délibératif d'informations sur lequel les sociétés démocratiques sont construites.

Les utilisateurs ne sont pas obligés d'accepter cela. Il existe de nombreux plugins tiers qui recadrent l'apparence et le contenu des plateformes sociales en fonction des besoins et des préférences des utilisateurs. Mais à l'heure actuelle, la plupart de ces plugins nécessitent une expertise technique pour être découverts et installés, et les plates-formes sont fortement incitées à cacher et à empêcher l'adoption par les utilisateurs de ces outils indépendants. Le DSA est l'opportunité en or pour l'Europe de créer un environnement juridique plus convivial pour encourager et soutenir ce marché orienté utilisateur. Le règlement devrait soutenir l' interopérabilité et permettre la compatibilité concurrentielle , et devrait établir des règles explicites et applicables contre les conditions de service trop agressives qui visent à interdire toute ingénierie inverse et interconnexion. Au-delà de la loi sur les services numériques, l'UE doit soutenir activement les projets open source et commerciaux en Europe qui offrent des frontaux localisés ou responsabilisant les utilisateurs vers les plates-formes, et aider à favoriser un marché dynamique et viable pour ces outils.

Donner aux gens – par opposition aux plates-formes – plus de contrôle sur le contenu est une étape cruciale pour résoudre certains des problèmes les plus répandus en ligne qui sont actuellement mal gérés par des pratiques de modération de contenu. Les contrôles utilisateur ne devraient pas exiger un seuil élevé de connaissances technologiques nécessaires pour traverser le Web en toute sécurité. Au lieu de cela, les utilisateurs de plates-formes de médias sociaux disposant d'un pouvoir de marché significatif devraient être habilités à choisir le contenu avec lequel ils souhaitent interagir et à filtrer le contenu qu'ils ne veulent pas voir, d'une manière simple et conviviale. Les utilisateurs devraient également avoir la possibilité de se prononcer contre les recommandations organisées par algorithme ou de choisir d'autres heuristiques pour classer le contenu.

Principe 2: Transparence algorithmique

En plus d'avoir plus de contrôle sur le contenu avec lequel ils interagissent, les utilisateurs méritent également plus de transparence de la part des entreprises pour comprendre pourquoi le contenu ou les résultats de recherche leur sont montrés ou cachés. Les plates-formes en ligne devraient fournir des informations significatives sur les outils algorithmiques qu'elles utilisent dans la modération de contenu (c'est-à-dire les systèmes de recommandation de contenu, les outils de marquage du contenu) et la curation de contenu (par exemple dans le classement ou le classement du contenu). Les plates-formes devraient également offrir des explications facilement accessibles qui permettent aux utilisateurs de comprendre quand, pour quelles tâches et dans quelle mesure les outils algorithmiques sont utilisés. Pour alléger le fardeau des utilisateurs individuels de comprendre comment les algorithmes sont utilisés, les plates-formes disposant d'un pouvoir de marché significatif devraient permettre aux chercheurs indépendants et aux régulateurs compétents d'auditer leurs outils algorithmiques pour s'assurer qu'ils sont utilisés comme prévu.

Principe 3: Gouvernance responsable

Les plates-formes en ligne régissent leurs utilisateurs par le biais de leurs conditions de service, de leurs directives communautaires ou de leurs normes. Ces documents impliquent souvent les règles fondamentales qui déterminent ce que les utilisateurs sont autorisés à faire sur une plate-forme et quel comportement est contraint. Les plates-formes mettent régulièrement à jour ces documents, souvent de manière mineure, mais parfois de manière majeure, et généralement sans consulter ni informer leurs utilisateurs des changements. Les utilisateurs de ces plateformes doivent être avertis chaque fois que les règles qui les régissent changent, doivent être sollicités pour leur consentement et doivent être informés des conséquences de leur choix. Ils devraient également recevoir une explication significative de tout changement substantiel dans une langue qu'ils comprennent. En outre, les plates-formes devraient présenter leurs conditions de service dans un format lisible par machine et rendre toutes les versions précédentes de leurs conditions de service facilement accessibles au public.

Principe 4: Droit à l'anonymat en ligne

Il existe d'innombrables raisons pour lesquelles les individus peuvent ne pas vouloir partager leur identité publiquement en ligne. Si l'anonymat était autrefois courant sur Internet, il est devenu de plus en plus difficile de rester anonyme en ligne. Dans leur espoir de lutter contre les discours de haine ou les «fausses nouvelles», les décideurs politiques de l'UE et au-delà ont proposé des obligations pour les plates-formes de faire respecter l'utilisation de noms légaux.

Pour de nombreuses personnes, cependant – y compris les membres de la communauté LGBTQ +, les travailleurs du sexe et les victimes de violence domestique – ces règles pourraient avoir des effets dévastateurs et conduire au harcèlement ou à d'autres formes d'attribution. Nous pensons qu'en règle générale, les États membres devraient respecter la volonté des individus de ne pas divulguer leur identité en ligne. La loi sur les services numériques devrait affirmer l'autodétermination informationnelle des utilisateurs également à cet égard et introduire le droit européen à l'anonymat en ligne. Des conditions de service divergentes devraient être soumises à un contrôle de l'équité.


Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2020/08/our-eu-policy-principles-user-controls le Thu, 27 Aug 2020 07:21:37 +0000.