Épisode de podcast : qui devrait contrôler la parole en ligne ?

Épisode de podcast : qui devrait contrôler la parole en ligne ?

Épisode 103 de Comment réparer Internet d'EFF

Les bots qui essaient de modérer le discours en ligne font un travail épouvantable, et les humains en charge des plus grandes entreprises technologiques ne font pas mieux. La promesse d'Internet était d'être un espace où chacun pouvait s'exprimer. Mais aujourd'hui, seules quelques plateformes décident de ce que des milliards de personnes voient et disent en ligne.

Rejoignez Cindy Cohn et Danny O'Brien de l'EFF alors qu'ils discutent avec Daphne Keller de Stanford des raisons pour lesquelles l'approche actuelle de la modération de contenu échoue et comment une meilleure conversation en ligne est possible.

Cliquez ci-dessous pour écouter l'épisode maintenant, ou choisissez votre lecteur de podcast :

jouer

Badge Écouter sur Google Podcasts  Écoutez sur Apple Podcasts Badge
Écoutez sur Spotify Podcasts Badge  Abonnez-vous via badge RSS

Plus que jamais auparavant, les sociétés et les gouvernements exigent qu'une petite poignée d'entreprises, dont Google, Facebook et Twitter, contrôlent le discours qu'elles hébergent en ligne. Mais cela a un coût important dans les deux sens : les communautés marginalisées sont trop souvent réduites au silence et les voix puissantes qui poussent à la désinformation sont trop souvent amplifiées.

Keller discute avec nous de quelques idées sur la façon de nous sortir de ce piège et de revenir à un Internet plus distribué, où les communautés et les gens décident du type de modération de contenu que nous devrions voir, plutôt que des milliardaires technologiques qui nous traquent pour le profit ou le top- vers le bas les diktats des gouvernements.

Lorsque la même image apparaît dans un contexte de recrutement terroriste, mais apparaît également dans un contre-discours, les machines ne peuvent pas faire la différence.

Vous pouvez également retrouver le MP3 de cet épisode sur Internet Archive .

Dans cet épisode, vous découvrirez :

  • Pourquoi les plateformes géantes font un mauvais travail de modération du contenu et le feront probablement toujours
  • Qu'est-ce que la compatibilité concurrentielle (ComCom) et en quoi c'est un élément essentiel de la solution à notre casse-tête de modération de contenu, mais nous oblige également à résoudre certains problèmes.
  • Pourquoi les algorithmes d'apprentissage automatique ne seront pas en mesure de déterminer qui ou ce qu'est un « terroriste » et qui il est susceptible d'attraper à la place
  • Qu'est-ce que le débat sur « l'amplification » de la parole, et est-il différent de notre débat sur la parole elle-même ?
  • Pourquoi les voix internationales doivent être incluses dans les discussions sur la modération de contenu et les problèmes qui surviennent lorsqu'elles ne le sont pas
  • Comment nous pourrions passer à une modération de contenu « bottom-up » plutôt qu'à une concentration de pouvoir

Daphne Keller dirige le programme sur la régulation des plateformes au Cyber ​​Policy Center de Stanford. Elle est une ancienne avocate générale associée chez Google, où elle a travaillé sur des litiges et une législation révolutionnaires concernant la responsabilité des plateformes Internet. Vous pouvez la retrouver sur twitter @daphnehk . L'article le plus récent de Keller est « Amplification and its Discontents », qui traite des conséquences des gouvernements qui se lancent dans la réglementation du discours en ligne et des algorithmes qui les diffusent.

Si vous avez des commentaires sur cet épisode, veuillez envoyer un courriel à [email protected].

Ci-dessous, vous trouverez des ressources juridiques – y compris des liens vers des affaires importantes, des livres et des mémoires discutés dans le podcast – ainsi qu'une transcription complète de l'audio.

Ressources

Modération de contenu :

IA/Algorithmes :

Lois sur le retrait et le transport obligatoire :

Interopérabilité contradictoire :

Transcription de l'épisode 103 : Mettre les gens en contrôle de la parole en ligne

Daphne : Même si vous essayez de déployer des systèmes automatisés pour déterminer quel discours est autorisé et interdit en vertu de cette loi, les bots et l'automatisation et l'IA et d'autres robots magiques, ils échouent systématiquement de manière importante.

Cindy : C'est Daphne Keller, et elle est notre invitée aujourd'hui. Daphne travaille au Stanford Center for Internet and Society et est l'une des meilleures penseuses de la complexité du paysage actuel des médias sociaux et des conséquences de ces

Danny : Bienvenue sur la façon de réparer Internet avec la fondation de frontière électronique. Le podcast qui explore certains des plus gros problèmes auxquels nous sommes actuellement confrontés en ligne : des problèmes dont la source et la solution sont souvent enfouies dans les méandres obscurs du développement technologique, des changements sociétaux et des détails subtils de la loi sur Internet.

Cindy : Bonjour à tous, je m'appelle Cindy Cohn et je suis la directrice exécutive de l'Electronic Frontier Foundation.

Danny : Et je suis Danny O'Brien, conseiller spécial à l'Electronic Frontier Foundation.

Cindy : Je suis tellement excitée de parler à Daphne Keller parce qu'elle a travaillé pendant de nombreuses années comme avocate défendant le discours en ligne. Elle sait tout sur la façon dont des plateformes comme Facebook, TikTok et Twitter répriment les discussions controversées et comment elles se trompent si souvent.

Bonjour Daphné, merci d'être venue.

Daphne : Tout d'abord, merci beaucoup de m'avoir invitée ici. Je suis super excité.

Cindy : Alors dites : moi, comment Internet est-il devenu un endroit où seules quelques plates-formes décident de ce que des milliards de personnes peuvent voir et ne pas voir, et pourquoi le font-elles si mal ?

Daphne : Si vous reculez de vingt, vingt-cinq ans, vous avez un Internet de nœuds de parole largement distribués. Il n'y avait pas de point de contrôle centralisé, et beaucoup de gens considéraient cela comme une très bonne chose. Dans le même temps, Internet était utilisé par une tranche relativement privilégiée de la société, et donc ce que nous avons vu changer depuis lors, d'abord, c'est que de plus en plus de la société s'est déplacée en ligne. C'est donc un grand changement, le monde est-il passé en ligne – le monde et tous ses problèmes. L'autre grand changement est vraiment la consolidation du pouvoir et du contrôle sur Internet. Même il y a 15 ans, une grande partie de ce qui se passait en ligne était sur des blogs individuels distribués sur des pages Web et maintenant une grande partie de notre communication, où nous allons apprendre des choses, est contrôlée par une assez petite poignée d'entreprises, dont mon ancien employeur Google, et Facebook et Twitter. Et c'est un énorme changement, d'autant plus que nous, en tant que société, demandons de plus en plus à ces entreprises de contrôler la parole, et peut-être ne nous attaquons-nous pas aux conséquences de notre demande de le faire.

Danny : Notre modèle sur la façon dont la modération de contenu devrait fonctionner, où vous avez des personnes qui examinent les commentaires que quelqu'un a faits, puis qui choisissent et choisissent, a vraiment été développé à une époque où vous supposiez que la personne prenant la décision était un peu plus proche de vous—que c'était la personne qui dirigeait votre forum de discussion de quartier ou que vous éditiez simplement des commentaires sur son blog.

Daphne : L'ampleur de la modération sur un Facebook par exemple signifie qu'ils doivent adopter les règles les plus réductrices et non nuancées possibles afin de les communiquer à une main-d'œuvre mondiale répartie. Et cette main-d'œuvre mondiale répartie va inévitablement interpréter les choses différemment et avoir des résultats incohérents. Et puis, le fait que le décideur central siégeant à Palo Alto ou à Mountain View aux États-Unis soit soumis à de nombreuses pressions de la part, par exemple, de celui qui siège à la Maison Blanche ou des annonceurs, signifie qu'il y a à la fois une énorme marge d'erreur dans la modération du contenu , et inévitablement des politiques seront adoptées que 50 % de la population pensent être les mauvaises politiques.

Danny : Donc, quand nous voyons les plateformes de Mark Zuckerberg se présenter devant le Congrès américain et répondre aux questions des sénateurs, l'une des choses que je les entends répéter encore et encore, c'est que nous avons des algorithmes qui trient nos flux. Nous développons une IA capable d'identifier les nuances de la communication humaine, pourquoi semble-t-il qu'ils aient si mal réussi à créer un bot qui lit chaque message, puis sélectionne les mauvais et les rejette ?

Daphne : Bien sûr, le point de départ est que nous ne sommes pas d'accord sur ce que sont les bons et les mauvais, mais même si nous pourrions être d'accord, même si vous parlez d'un bot censé appliquer une loi sur la parole , une loi sur la parole qui est quelque chose de démocratiquement promulgué, et qui a probablement le plus de consensus derrière elle. Et la définition la plus nette, ils échouent systématiquement de manière importante. Vous savez qu'ils ont entrepris de faire tomber l'Etat islamique et à la place, ils ont supprimé les archives syriennes qui existent pour documenter les crimes de guerre en vue d'une future poursuite. Les machines font beaucoup d'erreurs, et ces erreurs ne sont pas uniformément réparties, nous avons un nombre croissant de recherches montrant un impact disparate, par exemple sur les locuteurs de l'anglais afro-américain, et donc il y a juste un certain nombre d'erreurs qui ne touchent pas seulement les valeurs de liberté d'expression mais aussi les valeurs d'égalité Il y a tout un tas de préoccupations sociétales qui sont impactées lorsque nous essayons de faire déployer des machines par des entreprises privées pour contrôler notre discours.

Danny : Quels types d'erreurs voyons-nous commettre par l'apprentissage automatique, en particulier dans l'exemple de la lutte contre le contenu terroriste ?

Daphne : Je pense donc que les réponses sont légèrement différentes selon les technologies dont nous parlons. De nombreuses technologies déployées pour détecter des éléments tels que le contenu terroriste concernent en réalité la détection des doublons. Et les problèmes avec ces systèmes sont qu'ils ne peuvent pas prendre en compte le contexte. Ainsi, lorsque la même image apparaît dans un contexte de recrutement terroriste mais apparaît également dans un contre-discours, les machines ne peuvent pas faire la différence.

Danny : Et quand vous dites contre-discours, vous faites référence aux nombreuses manières dont les gens s'élèvent contre le discours de haine.

Daphne : Ils ne sont pas doués pour comprendre des choses comme le discours de haine parce que les façons dont les humains sont terribles les uns envers les autres en utilisant le langage évoluent si rapidement, tout comme les façons dont les gens essaient de répondre à cela, de le saper et de récupérer la terminologie. J'ajouterais également que la plupart des entreprises dont nous parlons vendent des choses comme des publicités ciblées et qu'elles veulent donc vraiment promouvoir un récit selon lequel elles disposent d'une technologie qui peut comprendre le contenu, qui peut comprendre ce que vous voulez, qui peut comprendre ce qu'est cette vidéo et comment elle correspond à cette publicité et ainsi de suite.

Cindy : Je pense que vous abordez l'un des problèmes sous-jacents que nous avons, à savoir le manque de transparence de la part de ces sociétés et le manque de procédure régulière lorsqu'elles procèdent au retrait, me semblent être des éléments assez importants de la raison pour laquelle le les entreprises non seulement se trompent, mais redoublent d'efforts pour se tromper. Il y a également eu des propositions pour mettre en place des règles strictes dans des endroits comme l'Europe, de sorte que si une plate-forme retire quelque chose, elle doit être transparente et offrir à l'utilisateur la possibilité de faire appel. Parlons de cette pièce.

Daphne : Ce sont donc tous de grands développements, mais je suis à contre-courant. Alors maintenant que j'ai ce que je demande depuis des années, j'ai des problèmes avec, mon plus gros problème vraiment, c'est la compétition. Parce que je pense que les types de processus plus lourds que nous devrions absolument demander aux plus grandes plateformes peuvent eux-mêmes devenir un énorme avantage concurrentiel pour les opérateurs historiques s'il s'agit de choses que les opérateurs historiques peuvent se permettre de faire et que les petites plateformes ne le peuvent pas. Et donc la question de savoir qui devrait avoir quelles obligations est vraiment difficile et je ne pense pas avoir la réponse. Comme je pense que vous avez besoin que des économistes y réfléchissent, discutent avec des experts en modération de contenu. Mais je pense que si nous investissons trop pour dire que chaque plate-forme doit avoir le maximum de procédure et la meilleure transparence possible, nous nous heurtons en fait à un conflit avec les objectifs de la concurrence et nous devons réfléchir davantage à la manière de naviguer entre ces deux choses.

Cindy : Oh, je pense que c'est un point extrêmement important. C'est toujours une question d'équilibre, en particulier en ce qui concerne la réglementation des activités en ligne, car nous voulons protéger les personnes open source et les personnes qui viennent de commencer ou quelqu'un qui a une nouvelle idée. En même temps, une grande puissance s'accompagne d'une grande responsabilité, et nous voulons nous assurer que les grands font vraiment la bonne chose, et nous voulons aussi vraiment que les petits fassent la bonne chose aussi. Je ne veux pas les laisser complètement s'en tirer, mais trouver cette échelle va être extrêmement important.

Danny : L'une des préoccupations exprimées concerne moins le contenu particulier du discours, mais plutôt la façon dont les faux discours ou les discours haineux ont tendance à se propager plus rapidement que les discours véridiques ou apaisants. Vous voyez donc un tas de lois ou un tas de propositions techniques à travers le monde essayant de modifier cet aspect et de donner quelque chose de spécifique. Il y a eu des pressions sur les discussions de groupe comme WhatsApp en Inde, au Brésil et dans d'autres pays pour limiter la facilité de transfert des messages ou pour permettre au gouvernement de voir les messages qui sont beaucoup transférés. Est-ce que ce genre d'ajustement réglementaire vous satisfait ou est-ce que cela va trop loin ?

Daphne : Eh bien, je pense qu'il peut y avoir deux choses à distinguer ici : l'une est lorsque WhatsApp limite le nombre de personnes avec lesquelles vous pouvez partager un message ou ajouter à un groupe. Ils ne savent pas quel est le message parce qu'il est crypté et ils imposent donc cette limite purement quantitative sur la façon dont les gens peuvent partager des choses. Ce que nous voyons de plus en plus dans la discussion aux États-Unis, c'est l'accent mis sur le fait de dire aux plateformes qu'elles devraient examiner le contenu, puis modifier ce qu'elles recommandent ou ce qu'elles priorisent dans un fil d'actualité en fonction de ce que la personne dit. Par exemple, il y a eu beaucoup de discussions au cours des deux dernières années pour savoir si l'algorithme de recommandation YouTube se radicalise. Vous savez, si vous recherchez des recettes végétariennes, cela vous poussera-t-il vers des recettes végétaliennes ou des versions bien plus sinistres de ce problème. Je pense qu'il est extrêmement productif pour les plates-formes elles-mêmes de se pencher sur cette question et de dire, attendez, que fait notre algorithme d'amplification ? Y a-t-il des choses que nous voulons modifier pour ne pas récompenser constamment les pires instincts de nos utilisateurs ? Ce que je vois qui me trouble, et sur lequel j'ai récemment écrit un article intitulé L'amplification et ses mécontentements, c'est cette idée grandissante que c'est aussi une bonne chose à faire pour les gouvernements. Que nous puissions faire en sorte que la loi dise, Hé les plates-formes, amplifiez ceci et n'amplifiez pas cela. C'est une idée attrayante pour beaucoup de gens car ils pensent que les plates-formes ne sont peut-être pas responsables de ce que leurs utilisateurs disent, mais elles sont responsables de ce qu'elles ont elles-mêmes choisi d'amplifier avec un algorithme.

Tous les problèmes que nous voyons avec la modération de contenu sont exactement les mêmes problèmes que nous verrions si nous appliquions les mêmes obligations à ce qu'ils amplifient. Le fait est que vous ne pouvez jamais réglementer aucune de ces choses, nous réglementons en fait ces choses. La loi américaine stipule que si les plateformes voient du matériel d'abus sexuel d'enfants, par exemple, elles doivent le retirer. Nous avons un système d'avis et de retrait pour un droit d'auteur. Ce n'est pas que nous vivons dans un monde où les lois ne peuvent jamais empêcher les plates-formes de supprimer des choses, mais ces lois se heurtent à cet ensemble très connu de problèmes de suppression excessive, d'impact disparate, d'atteinte à la vie privée, etc. Et vous obtenez exactement les mêmes problèmes avec les lois d'amplification.

Danny : Nous avons passé un certain temps à parler des problèmes de modération, de concurrence, et nous savons qu'il existe des options légales et réglementaires concernant ce qui se passe sur les réseaux sociaux qui sont appliquées maintenant et envisagées pour l'avenir. Daphne, pouvons-nous passer à la façon dont c'est réglementé maintenant ?

Daphne : En ce moment, nous voyons que nous passons de zéro directives gouvernementales sur la façon dont tout cela se passe à des directives gouvernementales si détaillées qu'elles prennent 25 pages à lire et à comprendre, et en plus il y aura des directives réglementaires supplémentaires plus tard. Je pense que nous pouvons en venir à regretter que, passer d'une expérience nulle pour essayer d'établir ces règles à inventer ce qui semble juste dans l'abstrait sur la base du peu que nous savons maintenant, avec une transparence insuffisante et une base inadéquate pour vraiment porter ces jugements . Je pense que nous allons probablement faire beaucoup d'erreurs, mais les inscrire dans des lois qui sont vraiment difficiles à changer.

Cindy : D'un autre côté, tu ne veux pas être pour aucun changement, parce que la situation actuelle n'est pas terrible non plus. C'est un endroit où peut-être un équilibre entre la façon dont les Européens pensent les choses qui sont souvent plus hautement réglementaires et les Américains laissent les entreprises faire ce qu'elles veulent de stratégie. Comme si nous avions besoin de tracer une voie médiane.

Danny : Oui, et je pense que cela soulève un autre problème qui, bien sûr, est aux prises avec ce problème, ce qui signifie que chaque pays envisage d'adopter des règles sur ce qui devrait arriver à la parole. Mais c'est la nature d'Internet et c'est l'un de ses avantages, il devrait l'être, c'est que tout le monde peut se parler. Que se passe-t-il lorsque ce discours dans un pays est écouté dans un autre avec deux règles de compétence différentes ? Est-ce un problème résoluble ?

Daphne : Il existe donc plusieurs versions de ce problème. Celui que nous avons depuis des années est que se passe-t-il si je dis quelque chose qu'il est légal de dire aux États-Unis mais illégal de dire au Canada, en Autriche ou au Brésil ? Et donc nous avons eu un petit nombre d'affaires, et plus récemment d'autres plus importantes, avec des tribunaux essayant de répondre à cette question et disant principalement, oui, j'ai le pouvoir d'ordonner des retraits mondiaux, mais ne vous inquiétez pas, je Je ne le ferais que lorsque c'est vraiment approprié de le faire. Et je pense que nous n'avons pas de bonne réponse. Nous avons de mauvaises réponses dans ces affaires, comme l'enfer ouais, je peux retirer tout ce que je veux dans le monde, mais une partie de la raison pour laquelle nous n'avons pas de bonne réponse est parce que ce n'est pas quelque chose que les tribunaux devraient résoudre . La nouveauté qui arrive, c'est comme si vous étiez époustouflants, c'est-à-dire que nous allons avoir des situations où un pays dit que vous devez supprimer cela et l'autre pays dit que vous ne pouvez pas supprimer cela, vous briserez le loi si vous le faites.

Danny : Oh… et je pense que c'est parfois contre-intuitif de voir qui fait ces affirmations. Ainsi, par exemple, je me souviens qu'il y avait eu une énorme fureur aux États-Unis à propos du moment où Donald Trump a été retiré de Twitter par Twitter, et en Europe, c'était fascinant, car la plupart des politiciens là-bas qui étaient assez critiques envers Donald Trump exprimaient tous une certaine inquiétude. qu'une grande entreprise de technologie pouvait faire taire un politicien, même s'il s'agissait d'un politicien auquel elle s'opposait. Et je pense que l'idée traditionnelle de l'Europe est qu'ils ne voudraient pas du genre de contenu que Donald Trump émet sur quelque chose comme Twitter.

Cindy : Je pense que c'est l'un des domaines où ce n'est pas seulement national, le genre de division mondiale entre ce qui se passe dans notre société se joue de manière vraiment amusante… parce qu'il y a, comme vous l'avez dit, ceux-ci, nous appelons ce genre des lois obligatoires. Il y en avait aussi un en Floride, et EFF a participé, au moins à obtenir une injonction contre celui-là. Les lois obligatoires sont ce que nous appelons un ensemble de lois qui obligent les sociétés de médias sociaux à maintenir quelque chose et leur infligent des sanctions si elles suppriment quelque chose. C'est un retournement direct de certaines des choses dont les gens parlent autour du discours de haine et d'autres choses qui obligent les entreprises à retirer les choses et à les pénaliser si elles ne le font pas.

Daphne : Je ne veux pas trop me pencher sur la loi ici, mais cela me semble être un moment où une grande partie de la doctrine établie du premier amendement pourrait devenir très rapidement modifiable, étant donné les choses que nous entendons, par exemple, de Clarence Thomas qui a émis un accord dans une autre affaire en disant : Hé, je n'aime pas l'état actuel des choses et peut-être que ces plates-formes devraient avoir à transporter des choses qu'elles ne veulent pas.

Cindy : Je m'en voudrais de ne pas souligner que je pense que c'est tout à fait vrai en tant que question politique, c'est également le cas en tant que question du premier amendement, que cette distinction entre le discours et la régulation de l'amplification est quelque chose que la Cour suprême a regardé beaucoup de fois et a dit essentiellement que c'était la même chose. Je pense que le fait que cela cause les mêmes problèmes montre qu'il ne s'agit pas simplement d'une sorte de doctrine du premier amendement suspendue dans l'air, l'absence de distinction dans la loi entre si vous pouvez le dire ou si cela peut être amplifié vient parce qu'ils causent vraiment les mêmes types de problèmes de société que la doctrine de la liberté d'expression essaie de s'assurer qu'ils ne se produisent pas dans notre monde.

Danny : Je parlais à quelques activistes kenyans la semaine dernière. Et l'une des choses qu'ils ont notées, c'est que pendant que l'UE et les États-Unis se battent pour savoir quel type de contrôle d'amplification est légal et fonctionnerait, ils sont confrontés à la situation où toute loi sur l'amplification dans leur propre pays va faire taire les opposition parce que bien sûr la politique est une question d'amplification. La politique, la bonne politique, c'est prendre la voix d'une minorité et s'assurer que tout le monde sache que quelque chose de mal leur arrive. Je pense donc que parfois, nous nous retrouvons un peu coincés à débattre des choses sous l'angle de l'UE ou sous l'angle juridique américain et nous oublions le reste du monde.

Daphne : Je pense qu'on fait systématiquement des erreurs si on n'a pas des voix du reste du monde dans la salle pour dire, hey attend, c'est comme ça que ça va se jouer en Egypte ou c'est comme ça qu'on a vu ça travailler en Colombie. De la même manière que, pour en revenir à la modération de contenu en général, les équipes de modération de contenu internes commettent un tas d'erreurs vraiment prévisibles si elles ne sont pas diversifiées. S'il s'agit d'un groupe de Blancs diplômés d'université qui gagnent beaucoup d'argent et vivent dans la région de la baie, il y a des problèmes qu'ils ne détecteront pas et que vous avez besoin de personnes ayant des antécédents et une expérience plus diversifiés à reconnaître et à planifier.

Danny : En revanche, s'il s'agit de personnes incroyablement sous-payées qui font cela dans un centre d'appels et doivent atteindre des chiffres ridicules et être traumatisées par le fait qu'elles parviennent à filtrer les pires ordures sur Internet, je pense que c'est un problème aussi.

Cindy : Jusqu'à présent, ma conclusion de cette conversation est que le fait que quelques grandes plates-formes essaient de réguler et de contrôler tout le discours du monde est fondamentalement voué à l'échec et il est voué à l'échec dans tout un tas de directions différentes. Mais l'objectif de notre podcast n'est pas simplement de nommer toutes les choses en rupture avec la politique Internet moderne, mais d'attirer l'attention sur des solutions pratiques et même idéalistes. Passons à cela.

Cindy : Vous avez donc plongé profondément dans ce que nous appelons à l'EFF l'interopérabilité contradictoire ou ComCom. C'est l'idée que les utilisateurs peuvent avoir des systèmes qui fonctionnent sur plusieurs plates-formes, par exemple, vous pouvez utiliser un réseau social de votre choix pour communiquer avec vos amis sur Facebook sans avoir à rejoindre Facebook vous-même. Que pensez-vous de cette réponse possible comme moyen de faire en sorte que Facebook ne soit pas le décideur du discours de tout le monde ?

Daphne : J'adore ça et je veux que ça marche, et je vois un tas de problèmes avec ça. Mais, mais je veux dire, une partie, une partie de la raison pour laquelle je l'aime, c'est parce que je suis vieux et que j'aime l'Internet distribué où il n'y avait pas ce genre de points d'étranglement du pouvoir sur le discours en ligne. Et donc j'aime l'idée de revenir à quelque chose de plus comme ça.

Cindy : Ouais.

Daphne : Vous savez, en tant qu'avocate du premier amendement, je le vois comme une voie à suivre dans un quartier plein d'impasses constitutionnelles. Vous savez, nous n'avons pas un tas de solutions parmi lesquelles choisir qui impliquent que le gouvernement vienne et dise aux plateformes ce qu'il faut faire avec plus de discours. Surtout les types de discours que les gens considèrent comme nuisibles ou dangereux, mais qui sont définitivement protégés par le premier amendement. Et donc le gouvernement ne peut pas adopter de lois à ce sujet. Ainsi, s'éloigner des solutions qui impliquent des diktats descendants sur le discours vers des solutions qui impliquent des choix ascendants par les locuteurs, les auditeurs et par la communauté concerne le type de modération de contenu qu'ils souhaitent voir, semble vraiment prometteur.

Cindy : À quoi cela ressemble-t-il d'un point de vue pratique ?

Daphne : Et il existe un tas de modèles de cela que vous pouvez envisager comme ce qu'ils appellent un système fédéré, comme le réseau social Mastodon où chaque nœud a ses propres règles. Ou vous pouvez dire, oh, vous savez, ça va trop loin, je veux quelqu'un au milieu qui soit capable d'honorer les demandes de retrait de droit d'auteur ou de policer un enfant, du matériel d'abus sexuel, être un point de contrôle, pour des choses que la société décide doit être contrôlé.

Vous savez, alors vous faites quelque chose comme ce que j'ai appelé des API magiques ou ce que mon collègue de Stanford Francis Fukuyama a appelé middleware, où l'idée est que Facebook fonctionne toujours, mais vous pouvez choisir de ne pas avoir leur classement ou leurs règles de modération de contenu, ou peut-être même leur interface utilisateur et vous pouvez choisir d'avoir la version, d'ESPN qui donne la priorité au sport ou d'un groupe affilié à Black Lives Matter qui donne la priorité aux problèmes de justice raciale.

Ainsi, vous introduisez de la concurrence dans la couche de modération du contenu, tout en laissant ce sous-jacent, comme un trésor de tout ce que nous avons jamais fait, au lieu de rester assis sur Internet avec les opérateurs historiques d'aujourd'hui.

Danny : Quelles sont certaines de vos préoccupations concernant cette approche ?

Daphne : J'ai quatre gros problèmes pratiques. La première est la technologie qui fonctionne vraiment ? Pouvez-vous vraiment avoir des API qui permettent à toute cette organisation de quantités massives de données de se produire instantanément de manière distribuée. La seconde concerne l'argent et qui est payé. Et les deux derniers sont des choses que je connais mieux. L'un concerne les coûts de modération du contenu et l'autre la confidentialité. Je déballe tout cela dans un court article récent dans le Journal of Democracy si les gens veulent se faire une idée là-dessus. Mais le problème des coûts de modération du contenu est que vous n'aurez jamais tous ces petits modérateurs de contenu distribués qui ont tous des locuteurs tchétchènes et des arabophones et des hispanophones et des locuteurs japonais. Vous savez, il y a donc juste un problème de redondance, où si vous les avez tous, vous devez avoir toutes les capacités linguistiques pour évaluer tout le contenu, cela devient inefficace. Ou vous savez que vous n'aurez jamais quelqu'un qui soit assez expert dans, par exemple, les groupes extrémistes américains pour savoir ce que signifie une chemise hawaïenne ce mois-ci par rapport à ce que cela signifiait le mois dernier.

Cindy : Ouais.

Daphne : Puis-je soulever un problème de plus avec la compatibilité concurrentielle ou l'interopérabilité contradictoire ? Et je soulève cela parce que je viens d'avoir beaucoup de conversations avec des gens intelligents que je respecte et qui sont vraiment bloqués sur ce problème, qui n'est pas juste en train de créer un tas de chambres d'écho où les gens s'isoleront et écouteront davantage aux mensonges ou au discours de haine. Cela ne sape-t-il pas davantage notre capacité à avoir une sorte de réalité consensuelle partagée et une démocratie qui fonctionne ?

Cindy : Je pense que certaines des premières prédictions à ce sujet ne se sont pas vraiment réalisées de la manière qui nous préoccupe. Je pense aussi qu'il y a beaucoup de craintes qui ne sont pas vraiment fondées sur des preuves empiriques sur l'endroit où les gens obtiennent leurs informations et comment ils les partagent, et qui doivent être prises en compte ici avant de décider que nous sommes simplement coincés avec Facebook et que notre seul véritable objectif ici est de serrer le poing contre Mark Zuckerberg ou d'écrire des lois qui feront en sorte qu'il protège un discours que j'aime et supprime le discours que je n'aime pas, car les autres sont trop stupides pour faire la différence.

Daphne : Si nous voulons éviter ce problème de chambre d'écho, cela vaut-il le compromis de préserver ces systèmes incroyablement concentrés de pouvoir sur la parole ? Pensons-nous que rien ne va mal avec cela? Pensons-nous que nous avons un bon avenir avec un pouvoir d'expression très concentré par des entreprises vulnérables aux pressions exercées par des gouvernements qui contrôlent l'accès à des marchés lucratifs comme la Chine, ce qui a poussé les entreprises américaines à supprimer les discours licites ? Des entreprises vulnérables aux pressions commerciales de leurs annonceurs qui seront toujours au mieux majoritaires. Les entreprises qui ont subi de nombreuses pressions de la part de l'administration précédente et de celle-ci et des futures administrations pour faire ce que veulent les politiciens. Le pire des cas pour moi d'avoir un pouvoir de parole extrêmement concentré et continu semble vraiment effrayant et donc, alors que je pèse les compromis, cela pèse très lourd, mais cela revient en quelque sorte à presque des questions que vous voulez poser à un historien ou à un sociologue ou un politologue ou Max Weber.

Danny : Quand je parle à mes amis ou à mon cercle d'amis plus large sur Internet, j'ai vraiment l'impression que les choses sont sur le point de dégénérer en dispute à chaque instant. Je vois cela dans les commentaires sur Facebook où quelqu'un dira quelque chose d'assez anodin et nous sommes tous amis, mais comme quelqu'un dira quelque chose et cela deviendra incontrôlable. Et je pense à quel point c'est rare quand je parle à mes amis dans la vraie vie. Il y a suffisamment d'indices là-bas pour que les gens sachent que si nous en parlons, alors untel va faire une grande tirade, et je pense que c'est une combinaison de proposer de nouvelles technologies, de nouvelles façons de traiter les choses, sur le Internet, et aussi, comme vous le dites, une meilleure recherche, une meilleure compréhension de ce qui fait que les choses tournent ainsi. Et la meilleure chose que nous puissions vraiment corriger est de changer les incitations, car je pense que l'une des raisons pour lesquelles nous avons atteint ce que nous atteignons actuellement est que nous avons une poignée d'entreprises et elles ont toutes des incitations très similaires à faire le même genre de chose.

Daphne : Oui, je pense que c'est tout à fait valable. Je commence chaque année mon cours de droit sur Internet à Stanford en faisant lire Larry Lessig aux gens. Il expose cette prémisse selon laquelle ce qui façonne vraiment le comportement des gens, ce ne sont pas seulement les lois, comme les avocats ont tendance à le supposer. It's a mix of four things, what he calls Norms, the social norms that you're talking about, markets, economic pressure, and architecture, by which he means software and the way that systems are designed to make things possible or impossible or easy or hard. What we might think of as product design on Facebook or Twitter today. And I think those of us who are lawyers and sit in the legal silo tend to hear ideas that only use one of those levers. They use the lever of changing the law, or maybe they add a changing technology, but it's very rare to see more systemic thinking that looks at all four of those levers, and how they have worked in combination to create problems that we've seen, like there are not enough social norms to keep us from being terrible to each other on the internet but also how those levers might be useful in proposals and ideas to fix things going forward.

Cindy: We need to create the conditions in which people can try a bunch of different ideas, and we as a society can try to figure out which ones are working and which ones aren't. We have some good examples. We know that Reddit for instance made some great strides in turning that place to something that has a lot more accountability. Part of what is exciting to me about ComCom and this middleware idea is not that they have the answer, but that they may open up the door to a bunch of things, some of which are going to be not good, but a couple of which might help us point the way forward towards a better internet that serves us. We may need to think about the next set of places where we go to speak as maybe not needing to be quite as profitable. I think we're doing this in the media space right now, where we're recognizing that maybe we don't need one or two giant media chains to present all the information to us. Maybe it's okay to have a local newspaper or a local blog that gives us the local news and that provides a reasonable living for the people who are doing it but isn't going to attract Wall Street money and investment. I think that one of the the keys to this is to move away from this idea that five big platforms make this tremendous amount of money. Let's spread that money around by giving other people a chance to offer services.

Daphne: I mean VCs may not like it but as a consumer I love it.

Cindy: And one of the ideas about fixing the internet around content moderation, hate speech, and these must carry laws, is really to try to to create more spaces where people can speak that are a little smaller and shrink the content moderation problem down to a size where we may still have problems but they're not so pervasive.

Daphne: And on sites where social norms matter more. You know where that lever, the thing that stops you from saying horrible racist things in a bar or at church or to your girlfriend or at the dinner table, if those sorts of the norms element of public discourse becomes more important online, by shrinking things down into manageable communities where you know the people around you, that might be an important way forward.

Danny: Yeah, I'm not an ass in social interactions not because there's a law against being an ass but because there's this huge social pressure and there's a way of conveying that social pressure in the real world and I think we can do that.

Cindy: Thank you so much for all that insight Daphne and for breaking down some of these difficult problems into kind of manageable chunks we can begin to address directly.

Daphne: Thank you so much for having me.

Danny: So Cindy, having heard all of that from Daphne, are you more or less optimistic about social media companies making good decisions about what we see online?

Cindy: So I think if we're talking about today's social media companies and the giant platforms, making good decisions, I'm probably just as pessimistic as I was when we started. If not more so. You know, Daphne really brought home how many of the problems we're facing in content moderation in speech these days are the result of the consolidation of power and control of the internet in the hands of a few tech giants. And how the business models of these giants play into this in ways that are not good.

Danny: Yeah. And I think that like the menu, the palette of potential solutions in this situation is not great either. Like, I think the other thing that came up is, is, you watch governments all around the world, recognize this as a problem, try and come in to fix the companies rather than fix the ecosystem. And then you end up with these very clumsy rules. Like I thought the must carry laws where you go to a handful of companies and say, you absolutely have to keep this content up is such a weird fix. When you start thinking about it.

Cindy: Yeah. And of course it's just as weird and problematic as you must take this down, immediately. Neither of these directions are good ones. The other thing that I really liked was how she talked about the problems with this idea that AI and bots could solve the problem.

DANNY: And I think part of the challenge here is that we have this big blob of problems, right? Lots of articles written about, oh, the terrible world of social media and we need an instant one off solution and Mark Zuckerberg is the person to do it. And I think that the very nature of conversation, the very nature of sociality is that it's, it is a small scale, right? It is at the level of a local cafe.

Cindy: And of course, it leads us to the the fixing part that we liked a lot, which is this idea that we try to figure out how do we redistribute the internet and redistribute these places so that we have a lot more local cafes or even town squares.

The other insight I really appreciate is kind of taking us back to, you know, the foundational thinking that our friend Larry Lessig did about how we have to think, not just about law as a fix, and not just about code, how do you build this thing as a fix, but we have to look at all four things. The law. Code, social norms, and markets as leverage that we have to try to make things better online.

Danny: Yeah. And I think it comes back to this idea that we have, like this big stockpile of all the world's conversations and we have to like crack it open and redirect it to these, these smaller experiments. And I think that comes back to this idea of interoperability, right? There's been such an attempt, a reasonable commercial attempt by these companies to create what the venture capitalists call a moat, right? Like this, this space between you and your potential competition. Well, we have to breach those modes and bridging them involves either by regulation or just by people building the right tools, having interoperability between the past, of social media giants and the future of millions and millions of individual social media places.

Cindy: Thank you to Daphne Keller for joining us today.

Danny: And thank you for joining us. If you have any feedback on this episode please email [email protected]. We read every email.

Music for the show is by Nat Keefe and Reed Mathis of BeatMower.

“How to Fix the Internet” is supported by The Alfred P. Sloan Foundation's Program in Public Understanding of Science and Technology.

I'm Danny O'Brien.

And I'm Cindy Cohn. Thank you for listening, until next time.


Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2021/11/podcast-episode-putting-people-control-online-speech le Tue, 30 Nov 2021 09:00:00 +0000.