Merci pour votre rapport de transparence, voici tout ce qui manque

Merci pour votre rapport de transparence, voici tout ce qui manque

Toutes les principales plateformes de médias sociaux – de Facebook à Reddit, d'Instagram à YouTube – modèrent et contrôlent le contenu partagé par les utilisateurs. Les plates-formes le font par intérêt personnel, commercial ou autre. Mais les plateformes modèrent également le contenu des utilisateurs en réponse à la pression de divers groupes d'intérêt et / ou gouvernements.

En conséquence, les plateformes de médias sociaux sont devenues les arbitres du discours en ligne , définissant ce qui peut ou non être dit et partagé en supprimant le contenu en conséquence. Alors que le public est devenu de plus en plus conscient et critique du rôle primordial que jouent les entreprises privées dans la définition de la liberté d'expression de millions d'utilisateurs en ligne, les entreprises de médias sociaux ont été confrontées à une pression accrue pour rendre des comptes sur leurs pratiques de modération de contenu. En réponse à ces demandes, et en partie pour répondre aux exigences légales stipulées par des réglementations telles que NetzDG en Allemagne, Facebook et d'autres sociétés de médias sociaux publient des «  rapports de transparence '' détaillés destinés à donner un aperçu de leurs pratiques de modération.

La transparence n'est pas toujours synonyme de transparence

Le plus récent «  rapport sur l'application des normes communautaires '' de Facebook , qui a été publié en août et couvre également sa filiale Instagram, est emblématique de certaines des lacunes des entreprises qui rendent compte de leurs propres pratiques de modération de contenu. Le rapport donne un aperçu approximatif du nombre de publications supprimées, ventilé selon les 10 domaines politiques que Facebook utilise pour catégoriser le discours (on ne sait pas si Facebook utilise ou non des catégories plus granulaires en interne). Ces catégories peuvent différer entre Facebook et Instagram. Par catégorie, Facebook indique également à quel point le contenu d'un certain type est répandu sur ses plates-formes, quel pourcentage de contenu prétendument contrefaisant a été supprimé avant qu'il ne soit signalé par les utilisateurs, et combien de contenus prétendument problématiques ont été restaurés plus tard.

Mais la modération du contenu et son impact sont toujours contextuels. Bien que les rapports stériles de Facebook sur les chiffres et les pourcentages puissent donner une estimation approximative du nombre d'éléments de contenu dont les catégories sont supprimés, ils ne nous disent pas pourquoi ni comment ces décisions sont prises. L'approche de la transparence de Facebook manque donc la cible, car la transparence réelle devrait permettre aux étrangers de voir et de comprendre quelles actions sont effectuées et pourquoi. Une transparence significative implique intrinsèquement ouverture et responsabilité, et ne peut être satisfaite en comptant simplement les retraits. C'est-à-dire qu'il existe une différence entre la «  transparence '' sanctionnée par l'entreprise, qui est intrinsèquement limitée, et une transparence significative qui permet aux utilisateurs de comprendre les actions de Facebook et de responsabiliser l'entreprise.

Cela est particulièrement pertinent à la lumière du changement fondamental dans l'approche de Facebook en matière de modération de contenu pendant la pandémie COVID-19. Comme les entreprises ne pouvaient pas compter sur leurs modérateurs de contenu humain, Facebook , Twitter et YouTube ont commencé à s'appuyer beaucoup plus sur des outils de modération automatisés, malgré les lacunes documentées des outils d'IA pour juger correctement le contexte social, culturel et politique du discours. Alors que les plateformes de médias sociaux utilisent de plus en plus les outils de modération de contenu automatisés, il est particulièrement crucial de fournir des explications concrètes sur la manière dont ces technologies façonnent (et limitent) les expériences en ligne des gens.

La vraie transparence doit fournir un contexte

Alors à quoi ressemblerait un rapport de transparence significatif? Tout d'abord, il devrait clarifier les bases – combien y a-t-il de modérateurs humains et combien couvrent chaque langue? Existe-t-il des langues pour lesquelles aucun locuteur natif n'est disponible pour juger du contexte de la parole? Quel est le ratio de modérateurs par langue? Ces informations sont importantes pour aider à comprendre (et éviter!) Des crises comme lorsque l' incapacité de Facebook à détecter les discours de haine dirigés contre les Rohingyas a contribué à la violence généralisée au Myanmar .

La vraie transparence ne doit pas non plus se limiter à faire la lumière sur les boîtes noires que les systèmes de modération de contenu algorithmique semblent être de l'extérieur. Afin de donner aux utilisateurs une certaine liberté d'action vis-à-vis des outils automatisés, les entreprises devraient expliquer quel type de technologie et d'intrants sont utilisés et à quel (s) point (s) des processus de modération de contenu. Une telle technologie est-elle utilisée pour signaler automatiquement le contenu suspect? Ou est-il également utilisé pour juger et classer le contenu signalé? Lorsque les utilisateurs signalent des suppressions de contenu, dans quelle mesure traitent-ils des robots de discussion automatisés et quand les plaintes sont-elles examinées par des humains? Les utilisateurs devraient également être en mesure de comprendre la relation entre la révision humaine et automatisée – les humains sont-ils simplement «dans la boucle» ou exercent-ils une surveillance et un contrôle réels sur les systèmes automatisés?

Les politiques qui constituent la base des suppressions de contenu constituent un autre pilier important d'une transparence significative. Les entreprises de médias sociaux élaborent souvent ces politiques sans beaucoup d'apport externe et les ajustent constamment. Les conditions de service ou les directives communautaires des plates-formes n'entrent généralement pas dans les détails ou ne fournissent pas d'exemples pour délimiter clairement un discours acceptable. Les rapports de transparence pourraient, par exemple, inclure des informations sur la manière dont les politiques de modération sont élaborées, si et quels experts externes ou parties prenantes ont contribué, à quelle fréquence elles sont modifiées et dans quelle mesure.

Étroitement liés: les rapports de transparence doivent décrire et expliquer comment les modérateurs humains et informatiques sont formés pour reconnaître le contenu contrefait. Dans de nombreux cas, la différence se situe entre, par exemple, l'incitation au terrorisme et le contre-discours contre l'extrémisme. Pour les modérateurs – qui travaillent rapidement – la ligne entre les deux peut être difficile à juger et dépend du contexte de la déclaration en question. C'est pourquoi il est crucial de comprendre comment les plateformes préparent leurs modérateurs à comprendre et à juger correctement de telles nuances.

La vraie transparence est habilitante, pas impersonnelle

Une transparence significative doit permettre aux gens de comprendre comment une plate-forme de médias sociaux est gouvernée, de connaître leurs droits selon ce modèle de gouvernance et de tenir les entreprises responsables chaque fois qu'elles la transgressent. Nous saluons les efforts des entreprises pour au moins offrir un aperçu de leur salle des machines de modération de contenu. Mais ils ont encore un long chemin à parcourir.

C'est pourquoi nous avons entrepris un processus de révision des Principes de Santa Clara sur la responsabilité et la transparence dans la modération de contenu , un processus actuellement en cours. Nous sommes impatients de partager les conclusions de nos recherches et de contribuer à l'avenir de la transparence des entreprises.


Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2020/10/thank-you-your-transparency-report-heres-everything-thats-missing le Tue, 13 Oct 2020 08:51:21 +0000.