Les robots de police ne sont pas une opportunité de selfie, ils sont un désastre de confidentialité qui attend

Les robots de police ne sont pas une opportunité de selfie, ils sont un désastre de confidentialité qui attend

L'arrivée de robots de police autonomes gérés par le gouvernement ne ressemble pas à des prédictions dans les films de science-fiction. Une armée de robots avec des armes à feu ne frappe pas votre porte pour vous arrêter. Au lieu de cela, un robot vif qui ressemble à une poubelle roulante est programmé pour décider si une personne semble suspecte – puis appeler la police humaine à leur sujet. Les robots de police peuvent ne pas être capables de blesser des gens comme les drones prédateurs armés utilisés au combat – pour le moment – mais comme le montre l'histoire, appeler la police sur quelqu'un peut s'avérer tout aussi mortel.

Bien avant le film Robocop de 1987 , avant même que Karel Čapek n'invente le mot robot en 1920, la police essayait de trouver des moyens d'être partout à la fois. Les caméras de sécurité généralisées sont une solution, mais même une couverture de caméras de vidéosurveillance ne pouvait pas suivre un suspect dans tous les recoins de l'espace public. Ainsi, la vision d'un robot policier a continué comme un rêve, jusqu'à présent. Qu'ils ressemblent aux robodogs de Boston Dynamics ou aux cornichons roulants de Knightscope , les robots arrivent dans une rue, un centre commercial ou une épicerie près de chez vous.

La menace orwellienne des robots vifs pourrait ne pas être immédiatement apparente. Les robots sont amusants. Ils dansent . Vous pouvez prendre des selfies avec eux. C'est par conception. Les services de police et les entreprises qui vendent ces robots savent que leurs plus grandes contributions ne sont pas seulement la surveillance, mais aussi la bonne volonté. Dans une brochure que Knightscope a envoyée à l'Université de Californie-Hastings, une école de droit du centre de San Francisco, la société fait la publicité de l'activité de leur robot dans un quartier commerçant de Los Angeles appelé The Bloc. On ne sait pas si le robot a arrêté des vols, mais il a recueilli plus de 100000 impressions sur les réseaux sociaux et 426 commentaires. Knightscope affirme que les 193 millions d'impressions médiatiques globales du robot valaient plus de 5,8 millions de dollars. Le Bloc a organisé un concours de dénomination pour le robot, et a déclaré qu'il manquait un «facteur cool» aux flics traditionnels et aux gardes de sécurité.

Le matériel promotionnel Bloc / Knighscope publié via une demande de dossiers publics par UC-Hastings

En février 2020, Knighscope avait environ 100 robots déployés 24h / 24 et 7j / 7 à travers les États-Unis. Dans combien de ces communautés les voisins ou les membres de la communauté ont-ils eu leur mot à dire pour savoir s'ils approuvaient ou non le déploiement de ces robots?

Mais à l'ère des conversations attendues depuis longtemps sur le rôle de la police dans notre société – et dans quelle ville après ville récupère la vie privée en restreignant les technologies de surveillance policière – ces robots ne sont qu'un moyen plus ludique de normaliser le panoptique de nos vies.

Les robots de police sont de la surveillance

Les robots de Knightscope ont besoin de caméras pour naviguer et traverser le terrain, mais ce n'est pas tout ce que font leurs capteurs. Selon la proposition que le service de police de Huntington Park, en Californie, a adressé au maire et au conseil municipal, ces robots sont équipés de nombreuses caméras infrarouges capables de lire les plaques d'immatriculation. Ils disposent également d'une technologie sans fil «capable d'identifier les smartphones dans sa portée jusqu'aux adresses MAC et IP».

La prochaine fois que vous participez à une manifestation et que vous êtes soulagé de voir un robot plutôt qu'un officier brandissant une matraque, sachez que ce robot utilise peut-être l'adresse IP de votre téléphone pour identifier votre participation. Cela rend les manifestants vulnérables aux représailles de la police et refroidit ainsi l'exercice futur des droits constitutionnels. «Lorsqu'un appareil émettant un signal Wi-Fi passe dans un rayon de près de 500 pieds d'un robot», explique la société sur son blog , «des renseignements exploitables sont capturés à partir de cet appareil, y compris des informations telles que: où, quand, distance entre le robot et l'appareil, la durée pendant laquelle l'appareil est resté dans la zone et le nombre d'autres fois où il a été détecté récemment sur le site. "

Au printemps 2019, la société a également annoncé qu'elle développait la reconnaissance faciale afin que les robots puissent «détecter, analyser et comparer les visages». EFF a longtemps proposé une interdiction complète de l' utilisation de la police de la technologie de reconnaissance faciale.

Qui est réprimandé lorsqu'un robot de police prend une mauvaise décision?

Les supports marketing et les reportages médiatiques de Knightscope suggèrent que la technologie peut reconnaître efficacement les colis, les véhicules et les personnes «suspects».

Mais lorsqu'un robot scanne une foule à la recherche de quelqu'un ou de quelque chose de suspect, que recherche-t-il réellement? On ne sait pas ce que veut dire l'entreprise. La décision de qualifier certaines actions et attributs de «suspects» doit être prise par quelqu'un. Si les robots sont conçus pour penser que les personnes portant des cagoules sont suspectes, ils peuvent cibler les jeunes de couleur. Si les robots sont programmés pour se concentrer sur les personnes qui se déplacent rapidement, ils peuvent harceler un jogger ou un piéton un jour de pluie. Si la machine a prétendument appris à identifier les criminels en regardant des photos de photos , alors vous avez un problème encore plus grand. Le racisme dans le système de justice pénale a pratiquement assuré que tout programme d'apprentissage automatique enseigné à voir les «criminels» sur la base des données sur la criminalité verra inévitablement les personnes de couleur comme suspectes .

L'apprentissage automatique d'un robot et la détection des comportements suspects conduiront au profilage racial et à d'autres harcèlements non fondés. Cela soulève la question: qui est réprimandé si un robot harcèle indûment une personne innocente ou appelle la police à leur encontre? Est-ce que le robot? Les personnes qui forment ou entretiennent le robot? Lorsque la violence de l'État se déchaîne sur une personne parce qu'un robot l'a faussement signalée comme suspecte, «changer la programmation» du robot puis le renvoyer dans la rue sera peu de réconfort pour une victime en espérant que cela ne se reproduira pas. Et lorsque des erreurs de programmation causent des dommages, qui examinera les modifications pour s'assurer qu'elles peuvent résoudre le vrai problème?

Ce sont toutes des questions importantes à vous poser, ainsi qu'à vos policiers et élus, avant de prendre un selfie avec un robot de surveillance roulant.


Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2021/01/police-robots-are-not-selfie-opportunity-theyre-privacy-disaster-waiting-happen le Thu, 07 Jan 2021 23:25:59 +0000.