La tentative de la loi PACT pour aider les internautes à responsabiliser les plates-formes finira par nuire aux locuteurs en ligne

La tentative de la loi PACT pour aider les internautes à responsabiliser les plates-formes finira par nuire aux locuteurs en ligne

Récemment, presque chaque semaine apporte un nouvel effort pour saper ou réviser une loi américaine clé – 47 USC § 230 («Section 230») – qui protège les services en ligne et permet aux internautes de s'exprimer. Bon nombre de ces propositions mettent en péril la liberté d'expression et la vie privée des utilisateurs , tandis que d'autres sont des attaques à peine voilées contre les services en ligne que le président et d'autres responsables n'aiment pas .

Ces attaques contre l'expression des utilisateurs et les plates-formes sur lesquelles nous comptons tous sont graves. Mais ils ne représentent pas des solutions sérieuses à un problème réel: une poignée de grandes plates-formes en ligne dominent la capacité des utilisateurs à s'organiser, à se connecter et à parler en ligne.

La loi sur la responsabilité de la plateforme et la transparence des consommateurs (PACT) , introduite le mois dernier par les sénateurs Brian Schatz (D-HI) et John Thune (R-SD), est un effort sérieux pour s'attaquer à ce problème. Le projet de loi s'appuie sur de bonnes idées, comme exiger une plus grande transparence concernant les décisions des plateformes de modérer le contenu de leurs utilisateurs – ce que l'EFF a défendu comme un effort volontaire dans le cadre des Principes de Santa Clara .

Cependant, la mise en œuvre de ces bonnes idées par la loi PACT est problématique. Les modifications apportées par le projet de loi à l'article 230 entraîneront une censure en ligne plus importante et légalement requise, ce qui nuira probablement aux communautés démunies et aux locuteurs défavorisés. Cela mettra également en péril l'existence de petites plates-formes et de nouveaux entrants qui tenteront de concurrencer Facebook, Twitter et YouTube en les soumettant à de lourdes pratiques de modération de contenu et en augmentant la probabilité qu'ils soient entraînés dans des litiges coûteux. Le projet de loi a également plusieurs problèmes liés au premier amendement car il oblige les services en ligne à s'exprimer et interfère avec leurs droits de décider eux-mêmes quand et comment modérer le contenu que leurs utilisateurs publient.

Le PACT Act a de nobles intentions, mais l'EFF ne peut pas l'appuyer. Cet article détaille ce que fait le PACT Act et les problèmes qu'il créera pour les utilisateurs en ligne.

Les modifications apportées à l'article 230 par la loi PACT entraîneront une plus grande censure en ligne

Avant de plonger dans les modifications proposées par la PACT ACT à l'article 230, examinons ce que fait l'article 230: il protège généralement les plates-formes en ligne de toute responsabilité pour l'hébergement de contenu généré par l'utilisateur que d' autres prétendent être illégal. Par exemple, si Alice a un blog sur WordPress et que Bob accuse Clyde d'avoir dit quelque chose de terrible dans les commentaires du blog, la section 230 (c) (1) garantit que ni Alice ni WordPress ne sont responsables des déclarations de Bob sur Clyde.

La loi PACT met fin à l'immunité de l'article 230 (c) (1) pour le contenu généré par l'utilisateur si les services ne parviennent pas à supprimer le matériel après avoir reçu un avis affirmant qu'un tribunal l'a déclaré illégal. Les plates-formes comptant plus d'un million d'utilisateurs mensuels ou dont les revenus annuels dépassent 25 millions de dollars doivent répondre à ces demandes de retrait et supprimer le matériel dans les 24 heures. Les plates-formes plus petites doivent retirer le matériel «dans un délai raisonnable en fonction de la taille et de la capacité du fournisseur». Si le PACT ACT passe, Clyde pourrait être en mesure de poursuivre Alice pour quelque chose qu'elle n'a même pas dit – la déclaration de Bob dans la section des commentaires que Clyde prétend est illégale.

À première vue, cela ne semble pas controversé – après tout, pourquoi les services devraient-ils bénéficier d'une immunité spéciale pour continuer d'héberger du contenu jugé illégal ou non protégé par le premier amendement? Le problème est que la loi PACT définit mal ce qui est qualifié d'ordonnance judiciaire, ne fournit pas de protections solides et établit des plates-formes plus petites pour des risques de litige encore plus importants que leurs concurrents plus importants.

L'EFF a vu trop souvent que les régimes de notification et de retrait entraînaient une plus grande censure du discours des utilisateurs. La réalité est que les gens abusent de ces systèmes pour supprimer le discours qu'ils n'aiment pas, plutôt que le contenu qui est en fait illégal. Et lorsque les plateformes sont confrontées à des risques de responsabilité pour continuer à héberger un discours qui a été signalé, elles sont susceptibles d'agir avec prudence et de supprimer le discours .

Le pouce du PACT Act sur l'échelle de suppression de la parole signifie que les communautés défavorisées seront les plus gravement touchées, car elles ont historiquement été ciblées par des allégations selon lesquelles leur discours est illégal ou offensant. De plus, la loi PACT n'inclut aucune sanction en cas d'abus de son nouveau régime de retrait, qui devrait être le strict minimum pour garantir la protection de la libre expression des utilisateurs.

De plus, la définition vague donnée par la Loi PACT de ce qui pourrait être qualifié d'ordonnance judiciaire crée ses propres maux de tête. Le premier amendement protège généralement la parole jusqu'à ce qu'elle soit déclarée non protégée à la fin d'une affaire, généralement après un procès. Et ces décisions sont régulièrement appelées et les tribunaux supérieurs les annulent souvent, comme on l'a vu dans le New York Times v. Sullivan . La loi ne contient aucune exigence selon laquelle l'ordonnance du tribunal doit être un jugement ou une ordonnance définitifs, ni ne prévoit d'ordonnances préliminaires ou non définitives ou de jugements par défaut. Nous savons que les gens utilisent souvent des jugements par défaut – dans lesquels une partie obtient une ordonnance du tribunal qui n'est véritablement contestée par personne – pour tenter de supprimer les discours qu'ils n'aiment pas.

La loi PACT ne tient pas compte de ces préoccupations. Au lieu de cela, il met les plates-formes dans la position d'avoir à décider – sur le risque de perdre l'immunité de l'article 230 – quelles ordonnances judiciaires sont légitimes, une recette qui conduira à des abus et à la suppression des discours légitimes.

De plus, les différents délais de retrait de matériel de la loi PACT en fonction de la taille des plates-formes créeront un torrent de litiges pour les petits services. Pour les grandes plates-formes, la loi PACT est claire: les démontages de matériaux déclarés illégaux doivent avoir lieu dans les 24 heures. Pour les plates-formes plus petites, le délai est illimité: un délai raisonnable en fonction de la taille et de la capacité du fournisseur.

En théorie, la norme flexible du projet de loi pour les petits services est une bonne chose, car les petits services ont moins de ressources pour modérer et supprimer le contenu de leurs utilisateurs. Mais en pratique, cela les exposera à des litiges plus importants et plus coûteux. En effet, déterminer ce qui est «raisonnable» en fonction de la taille et de la capacité spécifiques d'un fournisseur exigera une enquête plus factuelle, y compris une découverte coûteuse, avant qu'un tribunal et / ou un jury ne décide si le service a agi de manière raisonnable. Pour les grandes plateformes, la question juridique est bien plus simple: ont-ils retiré le matériel dans les 24 heures?

Ce ne sont pas des préoccupations abstraites. Comme l' a constaté un rapport , plaider une affaire par découverte sur la base d'affirmations selon lesquelles le matériel généré par l'utilisateur était illégal peut coûter plus de 500 000 dollars aux plates-formes. Face à ces projets de loi juridiques potentiellement rédhibitoires, les petites plateformes supprimeront immédiatement le contenu prétendument illégal, ce qui entraînera une censure accrue.

Exiger la modération du contenu et les retraits entravera la concurrence indispensable pour les plateformes en ligne

L'objectif du PACT Act de rendre les plateformes en ligne plus responsables envers leurs utilisateurs est louable, mais sa mise en œuvre renforcera probablement la domination des plus grands services en ligne.

En plus d'exiger que presque tous les services hébergeant du contenu généré par les utilisateurs mettent en place un système de notification et de retrait, la loi PACT les oblige également à créer des processus complets pour répondre aux plaintes concernant des contenus offensants et aux décisions de modération des services. Plus précisément, le projet de loi exige que les services (1) créent des politiques qui détaillent ce qui est autorisé sur leurs services, (2) répondent aux plaintes concernant le contenu de leur plateforme que d'autres n'aiment pas et aux plaintes des utilisateurs concernant une modération inappropriée, (3) agissent rapidement sur et faire rapport sur les raisons de leurs décisions en réponse à une plainte, tout en permettant aux utilisateurs de faire appel de ces décisions, et (4) publier des rapports de transparence concernant leurs retraits, appels et autres décisions de modération. Le défaut de mettre en œuvre l'une de ces politiques est un motif d'enquête et d'application potentielle par la Federal Trade Commission.

Le PACT Act exige en outre que les grandes plates-formes répondent aux plaintes des utilisateurs dans un délai de 14 jours, tandis que les petites plates-formes ont un délai illimité qui dépend de leur taille et de leur capacité.

Le fardeau associé au respect de toutes ces exigences ne peut être négligé. Répondre à chaque plainte des utilisateurs concernant un contenu qu'ils jugent offensant, ou un retrait qu'ils pensent être une erreur, nécessite que toutes les plateformes emploient des modérateurs de contenu et instituent des systèmes pour s'assurer que chaque demande est résolue dans un court laps de temps.

Malheureusement, les seules plates-formes qui pourraient facilement se conformer aux exigences de modération du PACT Act sont les mêmes plates-formes dominantes qui emploient déjà des équipes de modérateurs de contenu. Les exigences du PACT Act renforceraient davantage la puissance de Facebook, YouTube et Twitter, ce qui rendrait extrêmement difficile pour tout nouveau concurrent de les renverser. La portée du projet de loi signifie que même les sites Web d'information de taille moyenne dotés de panneaux de commentaires devraient également se conformer aux exigences de modération du PACT Act.

Ce qui manque à l'approche de la loi PACT, c'est que l'article 230 uniformise déjà les règles du jeu en offrant à tous les services en ligne les mêmes protections juridiques pour le contenu généré par les utilisateurs dont bénéficient les acteurs dominants. Ainsi, au lieu d'augmenter les charges juridiques et pratiques des entités qui tentent de renverser Facebook, YouTube et Twitter, le Congrès devrait se concentrer davantage sur l'utilisation de la loi antitrust et d'autres mécanismes pour inverser le pouvoir de marché démesuré de ces plateformes.

L'obligation légale de rendre compte de la modération du contenu et de la transparence violerait le premier amendement

L'objectif de la loi PACT, qui consiste à accroître la responsabilité des services en ligne pour leurs décisions de modération de la parole, est louable. L'EFF a fait partie d'une coalition plus large appelant à ce même type de responsabilité, y compris des efforts pour pousser les services à avoir des politiques claires , pour permettre aux utilisateurs de faire appel des décisions de modération qu'ils jugent erronées et de publier des rapports sur ces décisions de suppression.

Mais nous ne pensons pas que ces principes devraient être légalement imposés, ce qui est précisément ce que fait la loi PACT. Comme décrit ci-dessus, le projet de loi exige que les services en ligne publient des politiques décrivant le contenu autorisé, répondent aux plaintes concernant le contenu et leurs décisions de modération, expliquent leurs décisions de modération aux utilisateurs concernés et publient des rapports sur leurs décisions de modération. S'ils ne font pas toutes ces choses à la satisfaction du gouvernement, les services en ligne pourraient faire face à l'application de la FTC.

Si elles sont légalement mandatées, les exigences seraient une intrusion large et inconstitutionnelle dans les droits du premier amendement des plates-formes de décider elles-mêmes si et comment gérer le contenu de leurs utilisateurs, y compris comment répondre aux plaintes concernant des violations de leurs politiques ou des erreurs qu'ils ont commises. fait dans le contenu modérateur. Le premier amendement protège les décisions des services sur l'opportunité de mettre en place de telles politiques en premier lieu, de les modifier ou de les appliquer dans des situations spécifiques. Le premier amendement donne également aux plateformes le droit de prendre des décisions incohérentes.

Il y a plus de 40 ans, la Cour suprême a invalidé une loi de Floride qui obligeait les journaux à inclure les réponses des candidats politiques parce qu'elle interférait avec leurs droits du premier amendement de prendre des décisions sur le contenu qu'ils publiaient. Les tribunaux ont statué à plusieurs reprises que le même principe s'applique aux plateformes en ligne hébergeant du contenu généré par les utilisateurs. Cela comprend la décision récente du 9e Circuit dans Prager U c. Google , et une décision de mai de la Cour d'appel des États-Unis pour le district de Columbia dans une affaire intentée par Freedom Watch et Laura Loomer contre Google. Dans un autre cas, un tribunal a statué que lorsque les plates-formes en ligne "sélectionnent et organisent le matériel des autres, et ajoutent l'ordre très important qui fait que certains matériaux s'affichent en premier et d'autres en dernier, elles s'engagent dans l'expression du premier amendement entièrement protégée – la présentation d'une compilation éditée de discours générés par d'autres personnes. "

La loi PACT crée d'autres problèmes liés au premier amendement en obligeant les plateformes à s'exprimer. Par exemple, le projet de loi exige que les plateformes publient des politiques définissant le type de contenu acceptable sur leur service. Le projet de loi oblige également les plateformes à publier des rapports de transparence détaillant leurs décisions. Pour être clair, avoir des politiques claires et publier des rapports de transparence est un avantage évident pour les utilisateurs. Mais le premier amendement «interdit généralement au gouvernement de dire aux gens ce qu'ils doivent dire». Et dans la mesure où la loi PACT stipule que les services en ligne doivent s'exprimer de certaines manières, elle viole la Constitution.

Les sponsors de la loi PACT n'ont pas tort de vouloir que les services en ligne soient plus responsables envers leurs utilisateurs. Ils ne sont pas non plus inexacts dans leur évaluation selon laquelle une poignée de services servent de gardiens pour une grande partie de notre libre expression en ligne. Mais les tentatives de la loi PACT pour répondre à ces préoccupations créent plus de problèmes et finiraient par nuire à la parole des utilisateurs. La façon de répondre à ces préoccupations est d'encourager la concurrence et de rendre les utilisateurs moins dépendants d'une poignée de services – et non d'instituer des exigences juridiques qui enracinent davantage les principales plates-formes.


Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2020/07/pact-acts-attempt-help-internet-users-hold-platforms-accountable-will-end-hurting le Tue, 21 Jul 2020 19:03:28 +0000.