Au-delà des plates-formes: la censure privée, Parler et la pile

Au-delà des plates-formes: la censure privée, Parler et la pile

La semaine dernière, à la suite d'émeutes qui ont vu des partisans du président Trump violer et saccager des parties du bâtiment du Capitole, Facebook et Twitter ont pris la décision de donner la botte au président. C'était assez notable, étant donné que les deux sociétés avaient auparavant traité le président, comme d'autres dirigeants politiques, comme largement exempt des règles de modération du contenu. De nombreux partisans du président ont répondu en passant à Parler. Cette semaine, la réponse a pris un nouveau tournant. Les sociétés d'infrastructure beaucoup plus proches du bas de la «pile» technique y compris Amazon Web Services (AWS) et les magasins d'applications Android et Apple iOS de Google – ont décidé de couper le service non seulement à un individu mais à toute une plate-forme. Parler a jusqu'à présent eu du mal à revenir en ligne, en partie à cause d'erreurs de sa propre fabrication, mais aussi parce que plus bas dans la pile technique, plus il est difficile de trouver des alternatives ou de ré-implémenter les capacités qu'Internet a tenues pour acquises.

Quoi que vous pensiez de Parler, ces décisions devraient vous donner une pause. Les entreprises privées ont de solides droits légaux en vertu de la loi américaine de refuser d'héberger ou de soutenir des discours qu'ils n'aiment pas. Mais ce refus comporte des risques différents lorsqu'un groupe d'entreprises se réunit pour s'assurer que certains discours ou orateurs sont effectivement mis hors ligne.

The Free Speech Stack — aka "Free Speech Chokepoints"

Pour voir les implications des choix de censure par les entreprises plus profondes, revenons en arrière pendant une minute. Comme le dit la chercheuse Joan Donovan , « À tous les niveaux de la pile technologique, les entreprises sont placées en position de porter des jugements de valeur concernant la légitimité du contenu, y compris qui devrait y avoir accès, quand et comment.» Et les décisions prises par les entreprises à différentes couches de la pile auront forcément des impacts différents sur la libre expression.

Au sommet de la pile se trouvent des services comme Facebook, Reddit ou Twitter, des plates-formes dont les décisions concernant les personnes à servir (ou ce qu'il faut autoriser) sont comparativement visibles, bien qu'elles soient encore beaucoup trop opaques pour la plupart des utilisateurs. Leurs réponses peuvent être comparativement ciblées sur des utilisateurs et des contenus spécifiques et, surtout, ne pas couper autant d'alternatives. Par exemple, un forum de discussion se trouve près du sommet de la pile: si vous êtes démarré à partir d'une telle plate-forme, il existe d'autres lieux dans lesquels vous pouvez exercer votre discours. Ce sont les sites et services avec lesquels tous les utilisateurs (créateurs de contenu et consommateurs de contenu) interagissent le plus directement. Ce sont aussi les endroits auxquels les gens pensent lorsqu'ils pensent au contenu (c'est-à-dire «je l'ai vu sur Facebook»). Les utilisateurs sont souvent tenus d'avoir des comptes individuels ou avantagés s'ils le font. Les utilisateurs peuvent également rechercher spécifiquement les sites pour leur contenu. Plus l'utilisateur est proche, plus il est probable que les sites auront des politiques et des pratiques curatoriales et éditoriales plus développées et apparentes leurs «styles de signature». Et les utilisateurs ont généralement un moyen, aussi imparfait soit-il, de communiquer directement avec le service.

À l'autre extrémité de la pile se trouvent les fournisseurs de services Internet (FAI), comme Comcast ou AT&T. Les décisions prises par les entreprises à cette couche de la pile de supprimer du contenu ou des utilisateurs soulèvent de plus grandes préoccupations pour la liberté d'expression, en particulier lorsqu'il y a peu ou pas de concurrents. Par exemple, il serait très préoccupant que le seul fournisseur de services à large bande de votre région vous coupe la parole parce qu'il n'aime pas ce que vous avez dit en ligne ou ce que quelqu'un d'autre dont le nom figure sur le compte a dit. L'adage «si vous n'aimez pas les règles, allez ailleurs» ne fonctionne pas quand il n'y a nulle part où aller.

Entre les deux, il y a un large éventail d'intermédiaires, tels que des hôtes en amont comme AWS, des bureaux d'enregistrement de noms de domaine, des autorités de certification (telles que Let's Encrypt ), des réseaux de distribution de contenu (CDN), des processeurs de paiement et des services de messagerie. EFF a un tableau pratique de certains de ces liens entre les principaux intervenants et leur public ici . Ces intermédiaires fournissent l'infrastructure pour la parole et le commerce, mais beaucoup n'ont que la relation la plus tangentielle avec leurs utilisateurs. Face à une plainte, le retrait sera beaucoup plus facile et moins coûteux qu'une analyse nuancée du discours d'un utilisateur donné, et encore moins du discours qui pourrait être hébergé par une entreprise qui est utilisateur de ses services. Ainsi, ces services sont plus susceptibles de simplement couper un utilisateur ou une plate-forme que de procéder à un examen plus approfondi. De plus, dans de nombreux cas, les orateurs et le public ne seront pas conscients de l'identité de ces services et, même s'ils le font, n'auront aucune relation indépendante avec eux. Ces services ne sont donc généralement pas associés au discours qui les traverse et n'ont pas de «style de signature» à appliquer.

Les suppressions d'infrastructures sont également, sinon plus susceptibles de faire taire les voix marginalisées

Nous avons vu un exemple particulièrement flagrant de suppression d'infrastructure il y a quelques mois à peine, lorsque Zoom a pris la décision de bloquer un événement universitaire en ligne de l'Université d'État de San Francisco mettant en vedette d'éminents militants des mouvements de libération noirs et sud-africains, le groupe de défense Jewish Voice for Peace, et la figure controversée Leila Khaled – inspirant Facebook et YouTube à emboîter le pas. La décision, que Zoom a justifiée sur la base des liens présumés de Khaled avec une organisation terroriste étrangère désignée par les États-Unis, a apparemment été prise à la suite de pressions extérieures.

Bien que nous ayons de nombreuses inquiétudes quant à la manière dont les plateformes de médias sociaux comme Facebook, YouTube et Twitter prennent des décisions concernant la parole, nous avons vu la décision de Zoom différemment. Des entreprises comme Facebook et YouTube, pour le meilleur ou pour le pire, incluent la modération de contenu dans le cadre du service qu'elles fournissent. Depuis le début de la pandémie en particulier, cependant, Zoom a été utilisé dans le monde entier plus comme une compagnie de téléphone qu'une plate-forme. Et tout comme vous ne vous attendez pas à ce que votre compagnie de téléphone commence à prendre des décisions sur les personnes que vous pouvez appeler, vous ne vous attendez pas à ce que votre service de conférence commence à prendre des décisions sur les personnes pouvant rejoindre votre réunion.

Tout comme vous ne vous attendez pas à ce que votre compagnie de téléphone commence à prendre des décisions sur les personnes que vous pouvez appeler, vous ne vous attendez pas à ce que votre service de conférence commence à prendre des décisions sur les personnes pouvant rejoindre votre réunion.

C'est précisément pour cette raison que la décision ad hoc d'Amazon de couper l'hébergement aux médias sociaux alternatifs Parler, face à la pression du public, devrait inquiéter quiconque s'inquiète de la façon dont les décisions relatives au discours sont prises à long terme. À certains égards, l'éjection de Parler n'est ni un roman, ni un développement surprenant. Premièrement, ce n'est en aucun cas la première instance de modération à ce niveau de la pile. Les exemples antérieurs incluent le refus d'Amazon à WikiLeaks et à l'ensemble du pays iranien . Deuxièmement, la pression intérieure sur des entreprises comme Amazon pour qu'elles se démêlent de Parler était intense, et pour de bonnes raisons. Après tout, dans les jours qui ont précédé son retrait par Amazon, Parler a été l'hôte de menaces outrageusement violentes contre des politiciens élus de la part de ses utilisateurs vérifiés, y compris l' avocat L. Lin Wood .

Mais les démontages d'infrastructures représentent néanmoins un écart significatif par rapport aux attentes de la plupart des utilisateurs. Premièrement, ils sont cumulatifs, car tous les discours sur Internet dépendent de plusieurs hôtes d'infrastructure. Si les utilisateurs doivent se soucier de satisfaire non seulement les conditions générales de leur hôte, mais également celles de tous les services de la chaîne, du haut-parleur au public, même si le locuteur réel peut même ne pas être au courant de tous ces services ou de l'endroit où il fait la distinction entre discours haineux et non haineux – de nombreux utilisateurs éviteront tout simplement de partager des opinions controversées. Ils sont également moins précis. Dans le passé, nous avons vu des sites Web entiers de grande taille assombris par des hôtes en amont en raison d'une plainte concernant un seul document publié. Plus généralement, les suppressions au niveau de l'infrastructure nous mènent plus loin vers un Web parfaitement verrouillé et hautement surveillé, à partir duquel un haut-parleur peut être efficacement éjecté à tout moment.

À l'avenir, nous verrons probablement plus de cas qui ressemblent à la censure par Zoom d'un panel universitaire que d'Amazon coupant un autre Parler. Néanmoins, la décision d'Amazon met en évidence des questions fondamentales de notre époque: qui devrait décider de ce qu'est un discours acceptable et dans quelle mesure les entreprises au niveau de l'infrastructure devraient-elles jouer un rôle dans la censure?

Chez EFF, nous pensons que la réponse est à la fois simple et stimulante: dans la mesure du possible, les utilisateurs doivent décider par eux-mêmes, et les entreprises au niveau de l'infrastructure doivent rester en dehors de cela. L'approche la plus ferme et la plus cohérente que les points d'étranglement puissent prendre est de simplement refuser d'être des points d'étranglement. Ils devraient agir pour défendre leur rôle de relais plutôt que d'éditeur. Tout comme la loi et la coutume ont développé une norme selon laquelle nous pourrions poursuivre un éditeur pour diffamation, mais pas le propriétaire du bâtiment occupé par l'éditeur, nous développons lentement des normes sur la responsabilité du contenu en ligne. Des entreprises comme Zoom et Amazon ont la possibilité de façonner ces normes, pour le meilleur ou pour le pire.

La politique et la pratique d'Internet devraient être axées sur l'utilisateur et non sur la crise

Il est facile de dire aujourd'hui, dans un moment de crise, qu'un service comme Parler doit être évité. Après tout, les gens l'utilisent pour organiser des attaques contre le Capitole américain et contre les dirigeants du Congrès, dans le but exprimé de saper le processus démocratique. Mais une fois la crise passée, la pression sur les infrastructures de base, en tant que tactique, sera réutilisée, inévitablement, contre des orateurs et des forums injustement marginalisés. Ce n'est pas une pente glissante, ni une prévision provisoire – nous avons déjà vu cela arriver à des groupes et des communautés qui ont beaucoup moins de pouvoir et de ressources que le président des États-Unis et les partisans de sa cause. Et cette possibilité de censure généralisée ne sera pas perdue pour les gouvernements étrangers qui souhaitent non plus faire taire la dissidence légitime. Maintenant que le monde a été rappelé que l'infrastructure peut être réquisitionnée pour prendre des décisions pour contrôler la parole, les appels en faveur de celle-ci augmenteront: et les objections de principe peuvent tomber au bord du chemin.

Au cours des prochaines semaines, nous pouvons nous attendre à voir davantage de décisions comme celles-ci de la part d'entreprises à tous les niveaux de la pile. Aujourd'hui encore, Facebook a retiré des membres du gouvernement ougandais avant les élections de mardi dans le pays, par souci de manipulation électorale. Certaines des décisions prises par ces entreprises peuvent être bien documentées, tandis que d'autres seront sans aucun doute le résultat de pressions extérieures et aux dépens de groupes marginalisés.

Le problème central demeure: que nous soyons d'accord ou non avec une décision individuelle, ces décisions dans l'ensemble ne sont pas et ne seront pas prises démocratiquement et conformément aux exigences de transparence et de procédure régulière, et sont plutôt prises par une poignée d'individus, dans un poignée d’entreprises, les plus distantes et les moins visibles du plus grand nombre d’internautes. Que vous soyez d'accord ou non avec ces décisions, vous n'en ferez pas partie et vous ne serez pas au courant de leurs considérations. Et à moins que nous ne démantelions les points d'étranglement de plus en plus centralisés de notre infrastructure numérique mondiale, nous pouvons anticiper une bataille politique croissante entre les factions politiques et les États-nations pour prendre le contrôle de leurs pouvoirs.


Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2021/01/beyond-platforms-private-censorship-parler-and-stack le Tue, 12 Jan 2021 00:00:22 +0000.