La loi STOP CSAM mettrait en danger la sécurité et la liberté d’expression

La loi STOP CSAM mettrait en danger la sécurité et la liberté d'expression

Un nouveau projet de loi du Sénat américain présenté cette semaine menace la sécurité et la liberté d'expression sur Internet. L'EFF exhorte le Congrès à rejeter la loi STOP CSAM de 2023, qui saperait services offrant un cryptage de bout en bout et obligent les sociétés Internet à supprimer le contenu légal des utilisateurs.   

PASSER À L'ACTION

DITES AU CONGRÈS DE NE PAS INTERDIRE LES APPLICATIONS CRYPTÉES

Le projet de loi vise à supprimer d'Internet le matériel d'exploitation sexuelle d'enfants (CSAM), également connu sous le nom de pornographie enfantine. La loi existante exige déjà que les fournisseurs de services en ligne qui ont une connaissance réelle du CSAM «apparent» sur leurs plateformes signalent ce contenu au National Center for Missing and Exploited Children (NCMEC), qui est essentiellement une entité gouvernementale . Le NCMEC transmet ensuite les rapports exploitables aux organismes chargés de l'application de la loi pour enquête. 

La loi STOP CSAM va beaucoup plus loin. Le projet de loi s'applique aux «services informatiques interactifs», qui comprennent largement les applications de messagerie et de messagerie privées, les plateformes de médias sociaux, les fournisseurs de stockage en nuage et de nombreux autres intermédiaires Internet et fournisseurs de services en ligne. Le projet de loi fait quatre choses principales : 

  • Cela érige en crime le fait que les fournisseurs "hébergent ou stockent" sciemment du CSAM ou "promeuvent ou facilitent sciemment" l'exploitation sexuelle d'enfants, y compris la création de CSAM, sur leurs plateformes. 
  • Il crée une nouvelle action civile et l'exclusion correspondante de l'article 230 pour encourager les poursuites privées contre les sociétés Internet et les magasins d'applications pour la "promotion ou la facilitation" de l'exploitation des enfants, "l'hébergement ou le stockage de pornographie enfantine" ou pour "rendre la pornographie enfantine disponible pour toute personne »—tous basés sur le très faible niveau de négligence . 
  • Elle oblige les fournisseurs à supprimer (en plus de signaler et de préserver) le CSAM «apparent» lorsqu'ils obtiennent une connaissance réelle du contenu sur leurs plateformes. 
  • Il crée un système de notification et de retrait supervisé par un comité de protection en ligne des enfants nouvellement créé, obligeant les fournisseurs à supprimer ou à désactiver le contenu sur demande avant même qu'une décision administrative ou judiciaire ne détermine que le contenu est en fait du CSAM. 

Le projet de loi menace la sécurité en compromettant la viabilité des services de chiffrement de bout en bout 

Le projet de loi érige en infraction le fait « d'héberger ou de stocker sciemment de la pornographie juvénile » ou de « promouvoir ou faciliter » l'exploitation sexuelle des enfants. Le projet de loi ouvre également la porte à des poursuites civiles contre les fournisseurs pour la "promotion ou la facilitation" par négligence d'un comportement lié à l'exploitation des enfants, "l'hébergement ou le stockage de pornographie enfantine" ou pour "rendre la pornographie enfantine accessible à toute personne" . 

Les termes « promouvoir » et « faciliter » sont larges, et la responsabilité civile peut être imposée sur la base d'une norme de négligence très faible, la norme d'état d'esprit la plus basse en vertu de la loi. Il s'agit de la même norme appliquée aux affaires judiciaires impliquant des accidents de voiture et d'autres situations où le défendeur n'avait pas l'intention de causer un préjudice, mais il l'a néanmoins fait en raison d'une négligence ou même simplement d'une omission d'agir.  

La création de nouvelles poursuites pénales et civiles contre les fournisseurs sur la base de conditions générales et de normes peu rigoureuses compromettra la sécurité numérique de tous les internautes. Étant donné que la loi interdit déjà la distribution de CSAM, les termes généraux du projet de loi pourraient être interprétés comme atteignant un comportement plus passif , comme simplement fournir une application cryptée. 

En raison de la nature de leurs services, les fournisseurs de communications cryptées qui reçoivent un avis de retrait peuvent être réputés avoir une « connaissance » en vertu du droit pénal, même s'ils ne peuvent pas vérifier et agir sur cet avis de retrait. Et il ne fait aucun doute que les avocats des plaignants soutiendront (à tort) que le simple fait de fournir un service crypté pouvant être utilisé pour stocker n'importe quelle image – pas nécessairement CSAM – facilite par négligence le partage de contenu illégal. 

Toutes les plateformes n'auront pas les ressources nécessaires pour lutter contre ces menaces devant les tribunaux, en particulier les nouveaux venus qui rivalisent avec des géants bien établis comme Meta et Google. Les plateformes cryptées ne devraient pas avoir à s'appuyer sur le pouvoir discrétionnaire des procureurs ou sur des décisions de justice favorables après un litige prolongé. Au lieu de cela, des exemptions spécifiques pour les fournisseurs cryptés devraient être abordées dans le texte du projet de loi.  

PASSER À L'ACTION

DITES AU CONGRÈS DE NE PAS INTERDIRE LES APPLICATIONS CRYPTÉES

Le projet de loi menace la liberté d'expression en créant une nouvelle exception à l'article 230 

La nouvelle action civile dans le projet de loi s'accompagne d'une exception à l'article 230 , la loi fondamentale d'Internet et de la parole et de l'innovation en ligne. L'article 230 offre une immunité partielle aux intermédiaires de l'internet lorsqu'ils sont poursuivis pour le contenu publié par leurs utilisateurs. La création d'une nouvelle exception à l'article 230 qui permet aux fournisseurs d'être poursuivis pour « facilitation » de l'exploitation sexuelle des enfants simplement sur la base de la fourniture d'une plate-forme qui héberge du contenu tiers portera atteinte à la liberté d'expression en ligne.

L'article 230 crée une marge de manœuvre légale pour les intermédiaires Internet afin de créer des espaces en ligne permettant aux personnes de communiquer librement dans le monde entier , avec de faibles barrières à l'entrée. Cependant, la création d'une nouvelle exception qui expose les fournisseurs à davantage de poursuites les amènera à limiter cette exposition légale . Les services en ligne vont censurer de plus en plus de contenus et de comptes d'utilisateurs, sans se soucier de savoir si ce contenu est en fait légal. Certaines plates-formes peuvent même être contraintes de fermer ou même de ne pas démarrer en premier lieu, de peur d'être emportées par un flot de litiges et de réclamations concernant des allégations de CSAM. Dans l'ensemble, cela nuit à tous les internautes qui comptent sur des intermédiaires pour se connecter à leurs communautés et au monde en général. 

Le projet de loi menace la liberté d'expression en obligeant les fournisseurs à supprimer le contenu potentiellement licite avant qu'il ne soit déterminé par la loi qu'il s'agit de CSAM  

Les dispositions de suppression de la loi STOP CSAM constituent des menaces importantes pour la liberté d'expression en ligne.

Dans une disposition, non seulement les fournisseurs doivent signaler le CSAM « apparent » au NCMEC après avoir obtenu une connaissance réelle, comme l'exige la loi en vigueur ; ils doivent maintenant le retirer de leurs services sans décision judiciaire que le contenu est, en fait, du CSAM illégal. Nous savons déjà que certains rapports peuvent être incorrects . 

Dans une autre disposition, le projet de loi crée un régime alambiqué de notification et de retrait supervisé par un nouveau conseil de protection en ligne des enfants, où les individus peuvent déposer des plaintes contre les entreprises pour supprimer le CSAM présumé de leurs plateformes. Ce système est mûr pour être joué par de mauvais acteurs, laissant le contenu légal des utilisateurs exposé à de fausses demandes de retrait. Le contenu protégé par le premier amendement impliquant la sexualité, l'orientation sexuelle ou l'identité de genre sera probablement la cible d'avis de retrait frivoles. 

Les procédures de notification et de retrait fonctionnent comme suit : en réponse à une notification de retrait, les fournisseurs doivent soit (1) supprimer le contenu dans les deux jours, soit (2) informer l'utilisateur qu'ils ne sont pas en mesure de le faire par des moyens raisonnables. Un fournisseur peut également contacter de manière informelle le plaignant s'il pense que le contenu est, en fait, un discours protégé. Mais si cela ne fonctionne pas, le seul recours d'un fournisseur est de désactiver le contenu et de contester l'avis de retrait auprès du Conseil. Même si un fournisseur remporte une contestation d'un avis de retrait, le fait que le contenu légal puisse être mis hors ligne avant une décision finale est contraire à la liberté d'expression. De plus, en raison de règles de bâillon manifestement inconstitutionnelles entourant l'examen du Conseil, le créateur de contenu protégé qui fait l'objet d'une demande de retrait frivole ne sera pas avisé du processus jusqu'à une décision finale. 

 Il existe d'autres raisons de remettre en question le processus de la Commission quasi judiciaire. Il est susceptible d'être sous-financé et en sous-effectif pour statuer sur les litiges de retrait à l'échelle d'Internet. De plus, le processus de la Commission semble être volontaire et, pour y participer, les parties doivent d'abord accepter de renoncer au droit de « faire trancher le différend » par un tribunal fédéral.  

Tout cela suppose, cependant, que les fournisseurs combattront en premier lieu les plaintes de contenu frivoles auprès de la Commission. Il est plus probable que les fournisseurs seront incités à supprimer simplement le contenu licite faisant l'objet d'une plainte pour éviter les frais et le fardeau d'une procédure administrative ou judiciaire. 

Le Congrès devrait éviter d'adopter une loi qui compromettrait la sécurité et la liberté d'expression en ligne. Au lieu de cela, le Congrès peut encourager la branche exécutive à appliquer les lois existantes. Depuis 2008, les fournisseurs s'exposent à de lourdes amendes s'ils omettent de signaler le CSAM après avoir été informés de sa présence sur leurs plateformes. Pourtant, nous ne connaissons aucun cas où le gouvernement fédéral ait appliqué cette disposition. De même, la FTC a le pouvoir de contrôler les conduites trompeuses en vertu de l'article 5 de la loi FTC . Dans la mesure où les fournisseurs promettent à leurs utilisateurs de supprimer le CSAM, la FTC peut faire respecter ces promesses en enquêtant sur toute allégation selon laquelle les fournisseurs n'ont pas respecté leurs propres politiques de contenu.

PASSER À L'ACTION

DITES AU CONGRÈS DE NE PAS INTERDIRE LES APPLICATIONS CRYPTÉES


Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2023/04/stop-csam-act-would-put-security-and-free-speech-risk le Fri, 21 Apr 2023 21:51:38 +0000.