Réécrire les lois sur la responsabilité des intermédiaires: ce que demande l’EFF – et vous devriez aussi

Réécrire les lois sur la responsabilité des intermédiaires: ce que demande l'EFF - et vous devriez aussi

La réécriture des piliers juridiques d'Internet est un sport populaire de nos jours. La frustration chez Big Tech, entre autres, a conduit à une vague de propositions pour modifier des lois de longue date, comme la section 230, la section 512 du DMCA et la directive sur le commerce électronique, qui aident à protéger les intermédiaires en ligne de toute responsabilité potentielle pour ce qui leurs utilisateurs disent ou font, ou pour leurs décisions de modération de contenu.

Il est courant en ce moment de blâmer les plateformes de médias sociaux pour une foule de maux. Parfois, ce blâme est mérité. Et parfois ce n'est pas le cas.

Si quelqu'un vous dit que réviser ces lois sera facile, il se trompe gravement. Pendant des décennies, les internautes – entreprises, organes de presse, créateurs de tous bords, militants politiques, associations, bibliothèques, éducateurs, gouvernements et humains ordinaires cherchant à se connecter – se sont appuyés sur ces protections. Dans le même temps, certaines des plates-formes et services qui contribuent à rendre tout cela possible ont hébergé et amplifié un grand nombre de contenus et d'activités préjudiciables. Traiter ce dernier sans nuire au premier est un défi incroyablement difficile. D'une manière générale, le meilleur point de départ est de se demander: «Les protections intermédiaires sont-elles le problème? Ma solution va-t-elle résoudre ce problème? Puis-je atténuer les effets collatéraux inévitables? » La réponse à ces trois questions devrait être un «oui» ferme. Si tel est le cas, l'idée vaut peut-être la peine d'être poursuivie. Sinon, retournez à la planche à dessin.

C'est la version courte. Voici un peu plus de détails sur ce que l'EFF demande lorsque les décideurs politiques viennent frapper à la porte.

Qu'est-ce qu'il essaie d'accomplir?

Cela peut sembler évident, mais il est important de comprendre l'objectif de la proposition, puis de faire correspondre cet objectif à ses impacts réels probables. Par exemple, si l'objectif déclaré de la proposition est de «freiner les grandes technologies», vous devez alors vous demander si le plan pourrait réellement entraver la concurrence des petites entreprises technologiques. Si l'objectif déclaré est de prévenir le harcèlement, alors nous voulons être sûrs que la proposition ne découragera pas les plateformes de modérer leur contenu pour réduire le harcèlement, et examiner si la proposition encouragera une censure trop large des discours non harcelants. De plus, nous veillons à ce que l'objectif soit cohérent avec la mission de l'EFF: garantir que la technologie soutient la liberté, la justice et l'innovation pour tous.

Est-ce constitutionnel?

Trop de décideurs politiques semblent se soucier trop peu de ce détail – ils laisseront à d'autres le soin de se battre devant les tribunaux . Étant donné que l'EFF est susceptible de mener les combats, nous voulons planifier à l'avance – et aider les autres à faire de même. Appelez-nous fous, mais nous pensons aussi que les électeurs se soucient de rester dans les limites fixées par la Constitution et se soucient également de savoir si leurs représentants perdent du temps (et de l'argent public) sur des initiatives qui ne survivront pas à un contrôle judiciaire.

Est-ce nécessaire – c'est-à-dire, les protections intermédiaires sont-elles le problème?

Si les forces de l'ordre ne disposent pas des ressources dont elles ont besoin pour donner suite aux signalements de harcèlement et d'abus, ou ne comprennent pas ou ne s'engagent pas à faire appliquer ces problèmes lorsqu'ils surviennent dans l'espace numérique, c'est un problème qui doit être résolu immédiatement. Mais la solution ne commence ou ne se termine probablement pas avec une personne qui filtre le contenu dans une cabine, encore moins un algorithme qui tente de faire de même.Il est courant en ce moment de blâmer les plateformes de médias sociaux pour une foule de maux. Parfois, ce blâme est mérité. Et parfois ce n'est pas le cas. Les détracteurs des protections contre la responsabilité des intermédiaires oublient trop souvent que la loi accorde déjà des droits et des recours aux victimes de discours préjudiciables lorsqu'ils causent des blessures, et que le problème peut provenir de la non-application ou de l'application des lois existantes contre les utilisateurs qui enfreignent ces lois. Les sanctions pénales des États s'appliquent à la fois au harcèlement et au harcèlement, et une panoplie de lois civiles et pénales traitent des comportements qui causent des dommages corporels à un individu. De plus, si une société Internet découvre que des personnes utilisent ses plates-formes pour distribuer du matériel d'abus sexuels sur des enfants, elle doit fournir ces informations au Centre national pour les enfants disparus et exploités et coopérer avec les enquêtes des forces de l'ordre. Enfin, les forces de l'ordre préfèrent parfois maintenir certains intermédiaires actifs afin qu'ils puissent mieux enquêter et suivre les personnes qui utilisent la plateforme pour se livrer à des comportements illégaux.

Dans ce contexte, nous nous demandons: les intermédiaires sont-ils en faute ici et, dans l'affirmative, sont-ils hors de portée du droit existant?

En plus des accusations criminelles, les victimes peuvent recourir à la diffamation, à la fausse lumière, à l'infliction intentionnelle de détresse émotionnelle, à la protection de la vie privée de droit commun, à l'ingérence dans un avantage économique, à la fraude, aux lois anti-discrimination et à d'autres causes civiles d'action pour demander réparation contre l'auteur original de le discours offensant. Ils peuvent également poursuivre une plate-forme si le propriétaire de la plate-forme est lui-même auteur du contenu illégal.

Quant aux plateformes elles-mêmes, les protections intermédiaires contiennent souvent des exceptions importantes. Pour ne prendre que quelques exemples: l'article 512 ne limite pas la responsabilité pour les propres activités de contrefaçon des fournisseurs de services et les oblige à prendre des mesures lorsqu'ils ont connaissance d'une violation par leurs utilisateurs. L'article 230 ne prévoit pas l'immunité contre les poursuites en vertu du droit pénal fédéral, ni la responsabilité fondée sur la loi sur le droit d'auteur ou certaines lois sur le trafic sexuel. Par exemple, les soutiens de SESTA / FOSTA , la dernière «réforme» de la section 230, ont désigné Backpage.com comme une cible principale, mais le FBI a fermé le site sans aucune aide de cette loi. L'article 230 ne prévoit pas non plus d'immunité contre la responsabilité civile ou pénale de l'État lorsque l'entreprise est responsable, en tout ou en partie, de la création ou du développement d'informations. L'article 230 n'immunise pas non plus l'implication de certains intermédiaires dans la publicité, par exemple, si une plate-forme oblige les annonceurs à choisir les destinataires de la publicité en fonction de leur statut de protection.

Dans ce contexte, nous nous demandons: les intermédiaires sont-ils en faute ici et, dans l'affirmative, sont-ils hors de portée du droit existant? Le changement proposé contribuera-t-il à atténuer le problème d'une manière pratique? Le ciblage des intermédiaires pourrait-il entraver l'application des lois existantes, par exemple en empêchant les forces de l'ordre de localiser et de rassembler des preuves sur des criminels?

Cela causera-t-il des dommages collatéraux? Dans l'affirmative, ces dommages peuvent-ils être atténués de manière adéquate?

En tant qu'organisation de défense des libertés civiles, l'une des principales raisons pour lesquelles l'EFF défend les limites de la responsabilité des intermédiaires est que nous connaissons le rôle crucial que jouent les intermédiaires dans la capacité des utilisateurs d' Internet qui dépendent de ces services de communiquer. Les tentatives de modification du comportement de la plate-forme en portant atteinte à la section 230 ou à la section 512, par exemple, peuvent en fait nuire aux utilisateurs légitimes qui comptent sur ces plates-formes pour se connecter, s'organiser et apprendre. Il s'agit d'un risque particulier pour les communautés historiquement marginalisées qui manquent souvent de voix dans les médias traditionnels et qui se retrouvent souvent mal ciblées par les systèmes de modération de contenu. Les bénéficiaires ultimes des limites de la responsabilité des intermédiaires sont nous tous qui voulons que ces intermédiaires existent afin que nous puissions publier des choses sans avoir à les coder et les héberger nous-mêmes, et afin que nous puissions lire, regarder et réutiliser le contenu que d'autres créent. .

De plus, nous sommes toujours conscients que les protections de responsabilité des intermédiaires ne se limitent pas aux «entreprises technologiques» de marque, quelle que soit leur taille. L'article 230, par sa langue , accorde l'immunité à tout «fournisseur ou utilisateur d'un service informatique interactif» lorsque ce «fournisseur ou utilisateur» republie le contenu créé par quelqu'un ou quelque chose d'autre, protégeant à la fois les décisions de le modérer et celles de le transmettre sans modération. . «Utilisateur», en particulier, a été interprété au sens large comme s’appliquant «simplement à toute personne utilisant un service informatique interactif». Cela inclut toute personne qui gère un site Web qui héberge les commentaires d'autres personnes, qui publie l'éditorial d'une autre personne sur des babillards électroniques ou des groupes de discussion , ou toute personne qui transfère les e-mails écrits par quelqu'un d'autre . Un utilisateur peut être un individu, une organisation à but non lucratif, une université , une petite entreprise physique ou, oui, une «entreprise technologique». Et la section 512 protège une large gamme de services, de votre FAI à Twitter en passant par les archives Internet et un site de loisirs comme Ravelry.

Dans ce contexte, nous nous demandons: qui sera concerné par la loi? Comment vont-ils réagir?

Par exemple, les intermédiaires chercheront-ils à limiter leur responsabilité en censurant ou en restreignant les discours et activités licites? La proposition exigera-t-elle que les intermédiaires filtrent ou filtrent le contenu avant sa publication? La proposition obligera-t-elle directement ou indirectement les intermédiaires à supprimer ou à bloquer le contenu des utilisateurs, les comptes, des sections entières de sites Web, des fonctionnalités ou des services entiers? Les intermédiaires vont-ils complètement fermer? Le coût de la conformité deviendra-t-il un obstacle à l'entrée pour les nouveaux concurrents, renforçant encore davantage les gardiens existants? La proposition autorisera-t-elle un veto de chahuteur, lorsqu'un seul avis ou signalement qu'un intermédiaire est utilisé à des fins illégales entraîne la responsabilité d'un tiers si l'intermédiaire n'agit pas?

Nous avons demandé aux professionnel (le) s du sexe et aux experts en sécurité des enfants ce qu'ils pensaient du SESTA / FOSTA. Ils nous ont dit que c'était dangereux.

Si la réponse est oui à l'une de ces questions, la proposition comprend-elle des mesures correctives adéquates? Par exemple (en se concentrant uniquement sur la concurrence), si la conformité peut rendre difficile la concurrence pour les petites entreprises ou faire émerger des alternatives, la proposition comprend-elle des mesures d'atténuation? Ces mesures d'atténuation seront-elles efficaces?

Quelle expertise est nécessaire pour évaluer cette proposition? Avons-nous? Pouvons-nous l'obtenir?

L'une des nombreuses leçons du SESTA / FOSTA est qu'il est difficile d'évaluer les effets collatéraux si vous ne demandez pas aux bonnes personnes. Nous avons demandé aux professionnel (le) s du sexe et aux experts en sécurité des enfants ce qu'ils pensaient du SESTA / FOSTA. Ils nous ont dit que c'était dangereux. Ils avaient raison .

Nous adoptons la même approche avec les propositions qui arrivent maintenant. Comprenons-nous les implications technologiques? Par exemple, certaines modifications proposées aux protections de l'article 230 dans le contexte de la publicité en ligne pourraient effectivement forcer des changements systémiques qui seront à la fois coûteux et obsolètes dans quelques années. Certains peuvent avoir beaucoup de sens et ne pas être trop lourds pour certains services. D'autres pourraient simplement être difficiles à évaluer sans une connaissance plus approfondie de la façon dont le système de publicité fonctionne actuellement et fonctionnera probablement à l'avenir. Certaines implications pour les utilisateurs peuvent ne pas être claires pour nous, il est donc particulièrement important de rechercher les communautés potentiellement affectées et de s'assurer qu'elles ont une opportunité significative de consulter et d'être entendues sur les impacts de toute proposition. Nous essayons de savoir quelles questions poser, mais aussi de savoir ce que nous ne savons pas .

La réforme des intermédiaires en ligne est difficile

De nombreuses propositions de réforme de la responsabilité intermédiaire ne sont guère plus que des vaporwares émanant de décideurs politiques qui semblent volontairement mal comprendre comment fonctionnent les protections intermédiaires et même Internet. Mais certains sont plus sérieux et méritent d'être examinés et examinés. Les questions ci-dessus devraient aider à guider ce processus.


Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2021/03/rewriting-intermediary-liability-law-what-eff-asks-and-you-should-too le Mon, 15 Mar 2021 21:26:08 +0000.