Le Conseil de surveillance de Facebook: qui (et quoi) manque jusqu’à présent sur la photo

Le Conseil de surveillance de Facebook: qui (et quoi) manque jusqu'à présent sur la photo

Nous sommes sceptiques à l'égard du Conseil de surveillance de Facebook depuis le premier jour. Nous suivrons de près et garderons l'esprit ouvert, car nous apprécions qu'il s'agit d'une première tentative de sembler de gouvernance et d'examen externe indispensables. Mais aucune «surveillance» ne peut résoudre le problème sous-jacent: la modération du contenu est extrêmement difficile à obtenir correctement, en particulier à l'échelle de Facebook. Et, étant donné le faible pourcentage de différends que le Conseil d'administration traitera, nous doutons qu'il fera beaucoup de brèche dans l'univers des échecs de modération de contenu.

Maintenant que les premiers membres du Conseil ont été annoncés, nous avons de nouvelles préoccupations. Les erreurs de modération du contenu ont un impact disproportionné sur les communautés vulnérables, dont beaucoup sont situées en dehors des États-Unis . Et pourtant, vingt-cinq pour cent du conseil d'administration initial est composé d'Américains, d'autres encore étant situés ou travaillant aux États-Unis. De nombreux membres semblent avoir une expérience générale du droit ou du renforcement des institutions, ce qui peut être utile, mais nous ne voyons pas beaucoup d'expérience spécifique avec les cadres internationaux des droits de l'homme.

Nous voulons également savoir qui ne fait pas partie du conseil d'administration. Comme l'a fait remarquer Kara Swisher dans le New York Times , «[T] il n'y a pas de gueule de bois, pas de gens grincheux et, surtout, personne n'est vraiment affecté par le côté dangereux de Facebook.»

Nous voyons trop peu d'individus de certaines régions, comme le Moyen-Orient et l'Afrique du Nord et l'Asie du Sud-Est. Nous ne voyons aucun défenseur LGBTQ, membre transgenre du conseil d'administration ou défenseur du handicap. Et nous ne voyons pas beaucoup de représentation des utilisateurs d'Internet qui créent le contenu en question. Bien que le Conseil de surveillance soit conçu pour identifier et trancher les différends les plus importants à l'échelle mondiale, le Conseil, dans sa composition actuelle, semble davantage orienté vers la résolution des préoccupations paroissiales des États-Unis, telles que la modération présumée de conférenciers conservateurs, que d'autres questions qui sont beaucoup plus pertinentes à l'échelle mondiale – telles que comme la suppression fréquente de la documentation des violations des droits de l'homme ou l'application incohérente des règles.

Une partie de la difficulté ici est que Facebook a essayé de reproduire le concept de tribunal mais a supprimé un aspect crucial de nombreux systèmes judiciaires: les freins et contrepoids intégrés dans la nomination des juges. Dans les démocraties qui fonctionnent bien, les juges peuvent être élus directement par les électeurs – et révoqués par eux – ou nommés par une branche du gouvernement, puis confirmés par une autre. Bien qu'ils ne soient pas parfaits, ces processus créent un système de responsabilisation.

Enfin, les membres du Conseil ont besoin d'expérience avec la modération du contenu et ses mécontentements. La modération de contenu est un sujet incroyablement complexe et difficile à comprendre, en particulier face à l'opacité des entreprises. Nous craignons qu'un conseil manquant d'experts en modération de contenu se fie à Facebook – une entreprise notoirement opaque pour ses opérations internes – pour lui fournir des connaissances sur la pratique. Le Conseil devrait plutôt se tourner vers les nombreuses personnes et organisations extérieures, y compris le FEP, qui travaillent dans ce domaine, certaines depuis des décennies, pour une compréhension approfondie des défis auxquels il est confronté. Une bonne caractéristique du Conseil est qu'il a la capacité de faire appel à des experts – et il devrait le faire, tôt et souvent.


Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2020/05/facebooks-oversight-board-lacks-appropriate-representation le Wed, 20 May 2020 09:46:59 +0000.