Démêler la désinformation : pas aussi simple qu’il n’y paraît

Démêler la désinformation : pas aussi simple qu'il n'y paraît

Des sacs mortuaires affirmant que la « désinformation tue » bordent les rues aujourd'hui devant le siège de Facebook à Washington, DC. Un groupe de manifestants, affilié à « The Real Facebook Oversight Board » (une organisation qui, de manière confuse, n'est pas affiliée à Facebook ou à son comité de surveillance), exhorte les actionnaires de Facebook à interdire les soi-disant « superdiffuseurs » de désinformation, c'est-à-dire nombre spécifique de comptes qui ont été jugés responsables de la majorité de la désinformation sur les vaccins COVID-19.

La désinformation sur les vaccins contribue certainement à leur lente adoption dans diverses régions des États-Unis ainsi que dans d'autres pays. Cette désinformation se propage de diverses manières : communautés locales, groupes familiaux WhatsApp, animateurs de télévision FOX et, oui, Facebook. Les militants qui poussent Facebook à supprimer ces « superdiffuseurs » n'ont pas tort : bien que Facebook interdise actuellement certaines informations erronées et désinformations sur le COVID-19, exhorter l'entreprise à appliquer ses propres règles de manière plus uniforme est une tactique éprouvée.

Mais si les « superdiffuseurs » de la désinformation sont faciles à identifier en fonction de la quantité d'informations qu'ils diffusent, lutter contre la désinformation au niveau systémique n'est pas une tâche facile, et certaines des propositions politiques que nous voyons nous préoccupent. Voici pourquoi.

1. La désinformation n'est pas toujours simple à identifier.

Aux États-Unis, il y a seulement quelques décennies, la communauté médicale considérait l'homosexualité comme une maladie mentale . Il a fallu un activisme sérieux et un débat de société pour que la communauté médicale comprenne que ce n'était pas le cas. Si Facebook avait existé – et si nous lui avions permis d'être l'arbitre de la vérité – ce débat n'aurait peut-être pas prospéré.

Voici un exemple plus récent : il y a beaucoup de débats au sein de la communauté médicale contemporaine sur les causes de l'EM/SFC, une maladie chronique pour laquelle une cause définitive n'a pas été déterminée et qui, il y a quelques années à peine, était considérée par de nombreux ne pas être réel. Les Centers for Disease Control le notent et reconnaissent que certains prestataires de soins de santé peuvent ne pas prendre la maladie au sérieux. De nombreuses personnes souffrant d'EM/SFC utilisent des plateformes comme Facebook et Twitter pour discuter de leur maladie et trouver une communauté. Si ces plateformes devaient réprimer cette discussion, en s'appuyant sur les points de vue des prestataires qui nient la gravité de la maladie, ceux qui en souffrent souffriraient davantage.

2. Charger une autorité de déterminer la désinformation présente de sérieux inconvénients.

Comme nous l'avons vu dans le premier exemple, il n'y a pas toujours d'accord entre les autorités et la société sur ce qui est véridique, et les autorités ne sont pas intrinsèquement correctes.

En janvier, le journal allemand Handelsblatt a publié un rapport indiquant que le vaccin Oxford-AstraZeneca n'était pas efficace pour les personnes âgées, citant une source gouvernementale anonyme et affirmant que le programme de vaccination du gouvernement allemand était risqué.

AstraZeneca a nié les allégations, et aucune preuve que le vaccin était inefficace pour les personnes âgées n'a été fournie, mais cela n'avait pas d'importance : le reportage de Handelsblatt a déclenché une série d'événements qui ont considérablement pesé sur la réputation d'AstraZeneca en Allemagne.

Enfin, il convient de souligner que même le CDC lui-même – l'autorité chargée de fournir des informations sur COVID-19 – s'est trompé sur quelques points, le plus récemment en mai lorsqu'il a levé sa recommandation que les gens portent des masques à l'intérieur, un événement qui a été suivi par une augmentation des cas de COVID-19. Ce changement a suscité un débat rigoureux sur les réseaux sociaux, notamment de la part d'épidémiologistes et de sociologues, débat qui était important pour de nombreuses personnes cherchant à comprendre ce qui était le mieux pour leur santé. Si Facebook s'était appuyé sur le CDC pour guider sa politique de désinformation, ce débat aurait bien pu être étouffé.

3. Faire respecter les règles de désinformation n'est pas une tâche facile.

Nous savons que l'application des conditions de service et des normes communautaires est une tâche difficile, même pour les plus riches, même pour ceux qui ont les meilleures intentions, comme, disons, un journal allemand bien respecté et bien financé. Mais si un journal, avec plusieurs couches de rédacteurs, ne réussit pas toujours, comment peut-on s'attendre à ce que les modérateurs de contenu, qui de toute évidence sont des travailleurs à bas salaire qui doivent modérer une certaine quantité de contenu par heure, le fassent ? Et plus précisément, comment pouvons-nous nous attendre à ce que les technologies automatisées, qui font déjà un nombre impressionnant d'erreurs de modération, fassent les choses correctement ?

Le fait est que la modération est difficile à tout niveau et impossible à grande échelle . Certes, les entreprises pourraient faire mieux en ce qui concerne les récidivistes comme les « superdiffuseurs » de désinformation, mais la majorité du contenu, réparti dans des centaines de langues et de juridictions, sera beaucoup plus difficile à modérer – et comme pour presque toutes les catégories d'expression, beaucoup de bons contenus seront pris dans le filet .


Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2021/07/disentangling-disinformation-not-easy-it-looks le Wed, 28 Jul 2021 22:30:01 +0000.