Les plateformes en ligne devraient cesser de s’associer aux agences gouvernementales pour supprimer du contenu

Les plateformes en ligne devraient cesser de s'associer aux agences gouvernementales pour supprimer du contenu

L'implication du gouvernement dans la modération du contenu soulève de graves préoccupations en matière de droits de l'homme dans tous les contextes, et ces préoccupations sont encore plus troublantes lorsque l'implication provient des forces de l'ordre.

Lorsque les sites coopèrent avec des agences gouvernementales, cela laisse la plate-forme intrinsèquement biaisée en faveur des positions privilégiées par le gouvernement. Cela donne aux entités gouvernementales une influence démesurée pour manipuler les systèmes de modération de contenu pour leurs propres objectifs politiques – pour contrôler le dialogue public, réprimer la dissidence, faire taire les opposants politiques ou émousser les mouvements sociaux. Et une fois que de tels systèmes sont établis, il est facile pour le gouvernement – et en particulier pour les forces de l'ordre – d'utiliser les systèmes pour contraindre et faire pression sur les plateformes pour modérer les discours qu'ils n'auraient peut-être pas choisi de modérer autrement.

Par exemple, le Vietnam s'est vanté de son efficacité croissante à faire supprimer les messages Facebook, mais a été accusé de cibler les dissidents en le faisant. De même, la Cyber ​​​​Unit israélienne s'est vantée de taux de conformité élevés allant jusqu'à 90% avec ses demandes de retrait sur toutes les plateformes de médias sociaux. Mais ces demandes ciblent injustement les militants des droits des Palestiniens, les organes de presse et la société civile, et l'un de ces incidents a incité le conseil de surveillance de Facebook à recommander que Facebook « officialise un processus transparent sur la manière dont il reçoit et répond à toutes les demandes du gouvernement pour la suppression de contenu, et s'assure qu'ils sont inclus dans les rapports de transparence.

Les problèmes liés à l'implication du gouvernement dans la modération du contenu ont été abordés dans les principes de Santa Clara 2.0 récemment révisés, dans lesquels l'EFF et d'autres organisations ont appelé les entreprises de médias sociaux à "reconnaître les risques particuliers pour les droits des utilisateurs qui résultent de l'implication de l'État dans les processus de modération du contenu". Les Principes de Santa Clara affirment également que "les acteurs étatiques ne doivent pas exploiter ou manipuler les systèmes de modération de contenu des entreprises pour censurer les dissidents, les opposants politiques, les mouvements sociaux ou toute personne". 

Plus précisément, les utilisateurs doivent pouvoir accéder :

  • Détails de toutes les règles ou politiques, qu'elles s'appliquent à l'échelle mondiale ou dans certaines juridictions, qui cherchent à refléter les exigences des lois locales.
  • Détails de toute relation de travail formelle ou informelle et/ou accords que l'entreprise a avec des acteurs étatiques lorsqu'il s'agit de signaler du contenu ou des comptes ou toute autre action entreprise par l'entreprise.
  • Détails du processus par lequel le contenu ou les comptes signalés par des acteurs étatiques sont évalués, que ce soit sur la base des règles ou politiques de l'entreprise ou des lois locales.
  • Détails des demandes de l'État aux postes d'action et aux comptes.

L'accès des utilisateurs à ces informations est encore plus pertinent lorsque les sites de médias sociaux ont accordé aux autorités gouvernementales le statut de "signaleur de confiance" pour informer la plateforme du contenu illégal ou qui viole ses directives communautaires ou ses conditions d'utilisation. Ce statut a été accordé aux gouvernements même lorsque leur propre bilan en matière de libertés civiles est douteux, permettant ainsi la censure des discours qui remettent en question les récits imposés par le gouvernement.

Ces inquiétudes concernant l'influence du gouvernement sur le contenu disponible pour les utilisateurs en ligne sont encore plus graves étant donné que la loi sur les services numériques (DSA) de l'UE imposera bientôt de nouveaux mécanismes permettant aux plateformes de désigner des agences gouvernementales – et potentiellement des agences d'application de la loi telles qu'Europol – comme signaleurs de confiance. , donnant ainsi aux gouvernements un statut prioritaire pour « signaler » le contenu des plateformes. Bien que les signaleurs de confiance soient uniquement censés signaler les contenus illégaux, le préambule de la DSA encourage les plateformes à habiliter les signaleurs de confiance à agir contre les contenus incompatibles avec leurs conditions de service. Cela ouvre la porte à la portée excessive des forces de l'ordre et à la dépendance excessive des plates-formes à l'égard des capacités des forces de l'ordre à des fins de modération de contenu.

De plus, les entités gouvernementales peuvent tout simplement manquer de l'expertise nécessaire pour signaler efficacement le contenu sur une variété de types de plateformes. Cela est évident au Royaume-Uni où le Metropolitan Police Service de Londres, ou le Met, cherche constamment à supprimer la musique de forage des plateformes en ligne sur la base de la croyance erronée et franchement raciste selon laquelle il ne s'agit pas du tout d'expression créative, mais d'une déclaration de témoin à activité criminelle. Dans une première mondiale pour les forces de l'ordre, YouTube a accordé aux agents du Met le statut de signaleur de confiance en 2018 pour "mettre en place un processus plus efficace et efficient pour la suppression du contenu en ligne". Ce système omniprésent de modération de contenu sur la musique de forage est régi par le projet Alpha du Met, qui implique des policiers d'unités de gangs exploitant une base de données, y compris des vidéos de musique de forage, et surveillant les sites de médias sociaux pour obtenir des renseignements sur les activités criminelles.  

Le Met a réfuté les accusations selon lesquelles le projet Alpha supprime la liberté d'expression ou viole le droit à la vie privée. Mais les rapports montrent que depuis novembre 2016, le Met a fait 579 renvois pour la suppression de «contenu potentiellement dangereux» des plateformes de médias sociaux et 522 d'entre eux ont été supprimés, principalement de YouTube. Un rapport de 2022 de Vice a également révélé que 1 006 vidéos de rap ont été incluses dans la base de données du projet Alpha depuis 2020, et un document officiel du Met fortement expurgé a noté que le projet devait effectuer « une surveillance ou un profilage systématique à grande échelle », avec des hommes. âgés de 15 à 21 ans l'objectif principal. Les paroles de drill et les vidéoclips ne sont pas des aveux simples ou immédiats d'engagements dans des activités criminelles, mais « l'analphabétisme de la rue » des forces de l'ordre exacerbe l'idée que la musique de drill est une illustration d'activités réelles que les artistes ont eux-mêmes vues ou faites, plutôt qu'un expression artistique communiquée par un langage et des références culturellement spécifiques que les policiers sont rarement en mesure de décoder ou de comprendre. 

Les forces de l'ordre ne sont pas des experts en musique et ont l'habitude de la lier à la violence . En tant que tels, les drapeaux levés par la police sur les plateformes sociales sont complètement à sens unique, plutôt qu'avec des experts soutenant les deux côtés. Et il est particulièrement troublant que les forces de l'ordre suscitent des inquiétudes concernant les activités des gangs grâce à leurs partenariats avec les plateformes de médias sociaux, qui ciblent de manière disproportionnée les jeunes et les communautés de couleur.

Tous les individus devraient pouvoir partager du contenu en ligne sans que leur voix ne soit censurée par les autorités gouvernementales car leurs opinions sont opposées à celles des puissants. Les utilisateurs doivent être informés lorsque des agences gouvernementales ont demandé la suppression de leur contenu, et les entreprises doivent divulguer tout accord de back-channel qu'elles ont avec des acteurs gouvernementaux y compris des systèmes de signalement de confiance ou d'autres systèmes préférés et révéler les acteurs gouvernementaux spécifiques à qui ces privilèges et accès sont accordés.


Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2022/08/online-platforms-should-stop-partnering-government-agencies-remove-content le Fri, 12 Aug 2022 08:34:43 +0000.