Maintenant et toujours, les plateformes devraient apprendre de leur base d’utilisateurs mondiale

Maintenant et toujours, les plateformes devraient apprendre de leur base d'utilisateurs mondiale

Les prochaines élections américaines ont attiré une large attention sur de nombreuses questions avec lesquelles la société civile se débat depuis des années: que devraient faire les entreprises face à la désinformation et aux discours de haine? Et que faire, précisément, lorsque ce discours vient des dirigeants les plus puissants du monde?

Les entreprises de la Silicon Valley et les décideurs politiques américains considèrent trop souvent ces questions à travers une lentille myope, se concentrant sur les problèmes à la maison comme s'ils étaient nouveaux – alors qu'il y a d'innombrables leçons à tirer de leurs actions dans le reste du monde. Les États-Unis ne sont pas la première nation à faire face à la désinformation liée aux élections; ces élections américaines ou les précédentes ne sont pas non plus les seules fois où les grandes plates-formes ont eu à y faire face.

Quand de fausses nouvelles conduisent à de faux retraits

Comme nous l'avons noté récemment , même les efforts les plus bien intentionnés pour contrôler la désinformation ont souvent pour effet de faire taire les principales voix, comme cela s'est produit plus tôt cette année lorsque Facebook s'est associé à une entreprise pour contrer la désinformation électorale émanant de la Tunisie. À l'époque, nous avons rejoint une coalition pour demander à Facebook d'être transparent dans sa prise de décision et d'expliquer comment ils avaient identifié à tort certains des principaux leaders d'opinion tunisiens comme des robots – mais nous attendons toujours des réponses.

Plus récemment, les Nigérians utilisant Instagram pour participer au mouvement #ENDSARS du pays ont vu leur discours supprimé sans avertissement – encore une fois, victime d'une modération trop zélée de la désinformation. Facebook, propriétaire d'Instagram, s'associe à des vérificateurs de faits pour contrer la désinformation – une bonne idée en théorie, mais en pratique, une surveillance indépendante forte semble de plus en plus nécessaire pour s'assurer que de telles erreurs ne deviennent pas de rigueur .

Discours dangereux

De nombreux observateurs américains craignent la violence en cas d'élections contestées. Les plateformes de médias sociaux ont réagi en apportant une myriade de changements de politique, parfois avec peu de clarté ou de cohérence et, pour certains critiques, avec trop peu d'effets significatifs. Par exemple, Twitter a annoncé l'année dernière qu'il ne diffuserait plus de publicités politiques , tandis qu'en mai, la société a commencé à étiqueter les tweets du président Trump qui contenaient de la désinformation, après des années de critiques.

Pendant ce temps, les utilisateurs de médias sociaux ailleurs sont soumis à une désinformation encore plus dangereuse de la part des dirigeants de leur pays, avec une réponse faible ou lente de la part des plateformes qui les hébergent. Et cette inaction s'est avérée dangereuse – aux Philippines, où les politiciens se livrent régulièrement à la désinformation sur les plateformes de médias sociaux (et où Facebook est l'espace virtuel le plus populaire pour le discours politique), un phénomène appelé «marquage rouge» est apparu, dans lequel des communistes présumés sont faussement étiquetées sur une liste publiée par le ministère de la Justice du pays et diffusée sur les réseaux sociaux. Bien que le ministère de la Justice des Philippines ait annulé bon nombre des accusations, elles ont continué de circuler – un incident récent s’est terminé chez l’ accusé .

Nous soutenons le droit des plates-formes de gérer le contenu comme elles l'entendent, et il est compréhensible qu'elles veuillent supprimer l'incitation violente – qui peut rapidement causer des dommages dans le monde réel si elle est autorisée à proliférer, en particulier lorsqu'elle provient de personnalités publiques et de politiciens. Mais s’ils veulent prendre ces mesures, ils devraient le faire de manière cohérente. Alors que les médias ont passé des mois à débattre de la question de savoir si les tweets de Trump devraient être supprimés, très peu d'attention a été accordée aux endroits où l'incitation violente de la part des politiciens entraîne de véritables violences, notamment aux Philippines, en Inde, au Sri Lanka et au Myanmar .

Bien sûr, lorsque la violence vient de l'État lui-même, on ne peut pas faire confiance à l'État pour atténuer ses torts – c'est là que les plateformes peuvent jouer un rôle crucial dans la protection des droits de l'homme. L'ancien rapporteur spécial sur la liberté d'expression, David Kaye, a proposé des lignes directrices à l'Assemblée générale des Nations Unies en 2019 pour les entreprises confrontées à des discours dangereux: toute décision doit s'inscrire dans le cadre de la nécessité et de la proportionnalité, et doit être traitée dans le contexte des cadres des droits de l'homme existants.

De nombreux projets étudient l'impact de l'incitation à la violence sur les réseaux sociaux. Le Dangerous Speech Project se concentre sur le discours qui a la capacité d'inciter à la violence dans le monde réel, tandis que le Early Warning Project mène des évaluations des risques pour fournir des alertes précoces sur les endroits où la rhétorique en ligne peut conduire à la violence hors ligne. De nombreuses recherches suggèrent également que les médias traditionnels aux États-Unis sont le principal vecteur de désinformation.

Une leçon clé ici est que la stratégie actuelle de la plupart des plates-formes de la Silicon Valley – c'est-à-dire de traiter les politiciens comme une classe à part – est à la fois injuste et inutile. Comme nous l'avons déjà dit , le discours des politiciens peut avoir des conséquences plus graves que celui de la personne moyenne – c'est pourquoi les entreprises devraient appliquer leurs règles de manière cohérente à tous les utilisateurs.

Les entreprises doivent écouter leurs utilisateurs … partout

Mais peut-être la plus grande leçon de toutes est que les entreprises doivent écouter leurs utilisateurs partout dans le monde et travailler avec des partenaires locaux pour rechercher des solutions adaptées au contexte local. Big Tech ne peut pas simplement supposer que les idées qui fonctionnent (ou qui ne fonctionnent pas) aux États-Unis fonctionneront partout. Il est impératif que les entreprises de technologie arrêtent de voir le monde à travers le prisme de la culture américaine et commencent à le voir dans toute sa complexité.

Enfin, les entreprises doivent adhérer aux Principes de Santa Clara sur la transparence et la responsabilité dans la modération de contenu et fournir aux utilisateurs transparence, avis et recours dans tous les cas , y compris la désinformation et le contenu violent. Avec plus de modération vient inévitablement plus d'erreurs; les Principes de Santa Clara sont une étape cruciale pour corriger et atténuer équitablement ces erreurs.


Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2020/11/during-elections-and-always-platforms-should-listen-their-global-user-base le Mon, 02 Nov 2020 14:08:26 +0000.