Les plateformes de médias sociaux doivent mieux gérer la désinformation, en particulier pendant les moments de conflit

Les plateformes de médias sociaux doivent mieux gérer la désinformation, en particulier pendant les moments de conflit

Dans les moments de tension politique et de conflit social, les gens se tournent vers les médias sociaux pour partager des informations, dire la vérité au pouvoir et rapporter des informations non censurées provenant de leurs communautés. Il y a un peu plus de dix ans, les médias sociaux étaient largement célébrés comme un stimulant, voire un catalyseur, des soulèvements démocratiques qui ont balayé le Moyen-Orient, l’Afrique du Nord, l’Espagne et ailleurs. Ce récit a toujours été plus complexe que ne le prétendaient les médias populaires, et ces plateformes ont toujours eu du mal à distinguer les informations erronées des faits. Mais à cette époque, les médias sociaux étaient un moyen pour les individus privés de leurs droits et marginalisés, longtemps négligés par les médias grand public, de se faire entendre dans le monde entier. Souvent, pour la première fois.

Pourtant, à la suite de l’attaque meurtrière du Hamas contre le sud d’Israël le week-end dernier – et de l’attaque militaire et du siège de Gaza en cours par Israël – la désinformation a prospéré sur les plateformes de médias sociaux. En particulier, sur X (anciennement Twitter), une plateforme dépouillée de ses politiques et de ses équipes de modération autrefois robustes par le PDG Elon Musk et laissée exposée à la diffusion d'informations fausses (désinformation) et délibérément trompeuses ou biaisées (désinformation). .

Il peut être difficile d’analyser des informations vérifiées à partir d’informations qui ont été mal interprétées, déformées ou manipulées. Et l’entrelacement de détails authentiques et d’événements réels dignes d’intérêt avec des images anciennes ou des informations fabriquées peut conduire à ce que des informations véritablement dignes d’être enregistrées – comme une frappe militaire dans une zone urbaine – soient associées à un mensonge viral. En effet, Bellingcat – une organisation fondée au milieu de la guerre en Syrie et qui enquête depuis longtemps sur la désinformation dans la région – a découvert un cas actuel dans lequel une vidéo largement partagée montrerait quelque chose de faux, mais une enquête plus approfondie a révélé que même si la vidéo elle-même n'était pas authentique, les informations contenues dans le texte du message étaient exactes et hautement dignes d'intérêt.

Comme nous l'avons dit à maintes reprises , la modération du contenu ne fonctionne pas à grande échelle et il n'existe pas de moyen idéal pour supprimer les informations fausses ou trompeuses d'un site de réseau social. Mais les plateformes comme X ont régressé au cours de l’année écoulée sur un certain nombre de mesures. Autrefois leader relatif en matière de transparence et de modération de contenu, X a été critiqué pour ne pas avoir réussi à supprimer les discours de haine et a désactivé les fonctionnalités permettant aux utilisateurs de signaler certains types de désinformation. La semaine dernière, NBC a signalé que la vitesse de publication sur la fonction Community Notes de la plateforme était si lente que les notes sur la désinformation connue étaient retardées de plusieurs jours. De la même manière, TikTok et Meta ont mis en place des stratégies peu fructueuses pour surveiller la nature des contenus présents sur leurs services.

Mais les plateformes de médias sociaux peuvent prendre certaines mesures pour accroître la probabilité que leurs sites soient des lieux où des informations fiables sont disponibles, en particulier en période de conflit.

Les plateformes doivent :

  • disposer de mécanismes de confiance et de sécurité robustes, proportionnés au volume de publications sur leur site, pour lutter contre la désinformation, et examiner et répondre aux plaintes des utilisateurs et des chercheurs ;
  • veiller à ce que leurs pratiques de modération de contenu soient transparentes, cohérentes et suffisamment financées dans tous les endroits où ils opèrent et dans toutes les langues pertinentes ;
  • recourir à une vérification des faits indépendante par des tiers, y compris pour le contenu publié par les États et les représentants du gouvernement ;
  • inciter les utilisateurs à lire les articles et à évaluer leur fiabilité avant de les booster via leurs propres comptes ;
  • soumettre leurs systèmes de modération à des audits indépendants pour évaluer leur fiabilité, et
  • adhérer aux principes de Santa Clara sur la transparence et la responsabilité dans la modération du contenu et fournir aux utilisateurs transparence, notification et recours dans tous les cas, y compris la désinformation et le contenu violent.

Les entreprises internationales comme X et Meta sont également soumises à la loi sur les services numériques de l'Union européenne, qui impose aux grandes plateformes l'obligation d'employer des procédures robustes pour supprimer les contenus illégaux et lutter contre les risques systémiques et les abus. La semaine dernière, le commissaire européen au marché intérieur, Thierry Breton, a exhorté TikTok , a mis en garde Meta et a appelé Elon Musk à empêcher de toute urgence la diffusion de désinformation et de contenus illégaux sur leurs sites, et à veiller à ce que des mesures proportionnées et appropriées soient en place pour garantir sûreté et sécurité des utilisateurs en ligne. Bien que leurs actions servent d' avertissement aux plateformes que la Commission européenne surveille de près et envisage des procédures formelles, nous sommes fortement en désaccord avec l'approche consistant à politiser le DSA pour négocier des règles d'expression avec les plateformes et exiger la suppression rapide de contenus qui ne sont pas nécessairement illégaux.

Ne vous y trompez pas : la mésinformation et la désinformation peuvent facilement s’intégrer au dialogue public plus large. Prenons, par exemple, l’ allégation selon laquelle le Hamas aurait « décapité des bébés et des jeunes enfants ». Cela n’a pas été vérifié, mais a néanmoins enflammé les utilisateurs des médias sociaux et a conduit plus de cinq grands journaux du Royaume-Uni à publier l’histoire en première page. L’allégation a été encore légitimée lorsque le président Biden a affirmé avoir vu « des photos confirmées de terroristes décapitant des enfants ». La Maison Blanche est ensuite revenue sur cette affirmation. Les responsables israéliens ont depuis déclaré qu'ils ne pouvaient pas confirmer que des bébés avaient été décapités par le Hamas. 

Un autre exemple est celui des horribles allégations de viol et de prise pour cible délibérée de femmes et de personnes âgées lors de l'attaque de samedi, qui ont été répétées sur les réseaux sociaux ainsi que par de nombreuses personnalités politiques, célébrités et médias, notamment le sénateur Marco Rubio,Newsweek , le Los Angeles Angeles Times et Denver Post . Le président Biden a réitéré ces affirmations dans un discours après s’être entretenu avec le Premier ministre israélien Netanyahu. L'origine de ces allégations n'est pas claire, mais elles proviennent probablement des réseaux sociaux . Les forces de défense israéliennes ont déclaré au Forward qu’elles « n’ont encore aucune preuve de viol ayant eu lieu pendant l’attaque de samedi ou après ».

Le Hamas est également prêt à exploiter le manque de modération sur X, comme l'a déclaré un porte-parole du groupe au New York Times . Parce que le Hamas est depuis longtemps désigné par les États-Unis et l'UE comme une organisation terroriste, X a abordé le contenu du Hamas, déclarant que la société travaille avec le Forum mondial de l'Internet pour contrer le terrorisme (GIFCT) pour empêcher sa distribution et celle d'autres personnes désignées. organisations terroristes. Le groupe s’est néanmoins engagé à continuer de diffuser les exécutions , sans toutefois préciser sur quelle plateforme il le ferait.

Nous sommes tous vulnérables à la croyance et à la transmission de fausses informations. Il peut être difficile pour les utilisateurs de vérifier l’exactitude des informations pendant les conflits, lorsque les canaux de communication sont compromis et que les combattants, ainsi que leurs partisans, ont intérêt à faire circuler de la propagande. Mais ces défis n’excusent pas les plateformes d’employer des systèmes de modération efficaces pour lutter contre la désinformation. Et sans garde-fous adéquats pour les utilisateurs et sans mécanismes de confiance et de sécurité solides, ce ne sera pas le dernier cas où des allégations non prouvées auront des conséquences aussi désastreuses, tant en ligne que hors ligne.


Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2023/10/social-media-platforms-must-do-better-when-handling-misinformation-especially le Tue, 17 Oct 2023 21:49:38 +0000.