EFF au tribunal du NJ : Fournissez aux accusés des informations sur l’utilisation par la police de la technologie de reconnaissance faciale

EFF au tribunal du NJ : Fournissez aux accusés des informations sur l'utilisation par la police de la technologie de reconnaissance faciale

Nous avons tous lu les actualités : étude après étude , les algorithmes de reconnaissance faciale ne sont pas toujours fiables et les taux d'erreur augmentent considérablement lorsqu'ils impliquent des visages de personnes de couleur , en particulier des femmes noires , ainsi que des personnes trans et non binaires . Pourtant, cette technologie est largement utilisée par les forces de l'ordre pour identifier les suspects dans les enquêtes criminelles. En refusant de divulguer les détails de ce processus, les forces de l'ordre ont effectivement empêché les accusés de contester la fiabilité de la technologie qui a finalement conduit à leur arrestation.

Cette semaine, EFF, avec EPIC et NACDL, a déposé un mémoire amicus dans l'État du New Jersey contre Francisco Arteaga , exhortant une cour d'appel du New Jersey à permettre une découverte solide concernant l'utilisation par les forces de l'ordre de la technologie de reconnaissance faciale. Dans ce cas, une recherche de reconnaissance faciale menée par le NYPD pour la police du NJ a été utilisée pour déterminer que Francisco Arteaga était un "match" de l'auteur d'un vol à main armée. Malgré la centralité de la correspondance dans l'affaire, rien n'a été divulgué à la défense sur l'algorithme qui l'a généré, pas même le nom du logiciel utilisé. M. Arteaga a demandé des informations détaillées sur le processus de recherche, un expert témoignant de la nécessité de ce matériel, mais le tribunal a rejeté ces demandes.

La découverte complète concernant les recherches de reconnaissance faciale des forces de l'ordre est cruciale car, loin d'être un outil infaillible, le processus comporte de nombreuses étapes, qui présentent toutes un risque d'erreur substantiel. Ces étapes comprennent la sélection de la photo « sonde » de la personne recherchée par la police, l'édition de la photo sonde, le choix des bases de données de photos auxquelles la photo sonde modifiée est comparée, les spécificités de l'algorithme qui effectue la recherche et l'examen humain des résultats de l'algorithme. .

Les analystes de la police sélectionnent souvent une photo de sonde à partir d'une image fixe vidéo ou d'une caméra de téléphone portable, qui sont plus susceptibles d'être de mauvaise qualité. Les caractéristiques de l'image choisie, y compris sa résolution, sa clarté, l'angle du visage, l'éclairage, etc. ont toutes un impact sur la précision de la recherche algorithmique ultérieure. Étonnamment, les analystes peuvent également éditer de manière significative la photo de la sonde , en utilisant des outils ressemblant étroitement à ceux de Photoshop afin de supprimer les expressions faciales ou d'insérer des yeux, en combinant des photographies de visage de deux personnes différentes même si une seule est de l'auteur, en utilisant l'effet de flou pour ajouter pixels dans une image de faible qualité, en utilisant l'outil de clonage ou la modélisation 3D pour ajouter des parties du visage d'un sujet non visibles sur la photo d'origine. Dans un cas scandaleux, lorsque la photo de sonde originale n'a renvoyé aucune correspondance potentielle par l'algorithme, l'analyste de la section d'identification faciale du NYPD, qui pensait que le sujet ressemblait à l'acteur Woody Harrelson, a lancé une autre recherche en utilisant la photo de la célébrité à la place . Inutile de dire que ces changements augmentent considérablement le risque d'erreur d'identification.

La base de données de photos à laquelle la photo de la sonde est comparée, qui peut inclure des mugshots, des photos DMV ou d'autres sources, peut également avoir un impact sur la précision des résultats en fonction de la population qui compose ces bases de données. Les bases de données Mugshot incluront souvent plus de photos de personnes dans des communautés sur-policées et les erreurs qui en résultent dans la recherche sont plus susceptibles d'avoir un impact sur les membres de ces groupes.

Les algorithmes utilisés par les forces de l'ordre sont généralement développés par des entreprises privées et sont une technologie de «boîte noire» – il est impossible de savoir exactement comment les algorithmes arrivent à leurs conclusions sans regarder leur code source. Chaque algorithme est développé par différents concepteurs et formé à l'aide de différents ensembles de données. Les algorithmes créent des "modèles", également appelés "vecteurs faciaux", de la photographie de la sonde et des photographies de la base de données, mais différents algorithmes se concentreront sur différents points d'un visage lors de la création de ces modèles. Sans surprise, même en comparant la même photo de sonde aux mêmes bases de données, différents algorithmes produiront des résultats différents.

Bien que les analystes humains examinent la photo de la sonde et la liste des candidats générée par l'algorithme pour la correspondance à étudier, de nombreuses études ont montré que les humains sont enclins à mal identifier les visages inconnus et sont soumis aux mêmes biais que ceux présents dans les systèmes de reconnaissance faciale. L'examen humain est également influencé par de nombreux autres facteurs, notamment la capacité innée de l'analyste à analyser les visages, la motivation à trouver une correspondance, la fatigue liée à l'exécution d'une tâche répétitive, les contraintes de temps et les biais cognitifs et contextuels.

Malgré le grave risque d'erreur, les forces de l'ordre restent réticentes à propos de leurs systèmes de reconnaissance faciale. En déposant ce mémoire, EFF continue de plaider pour la transparence en matière de technologie d'application de la loi .


Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2022/09/eff-nj-court-give-defendants-information-regarding-police-use-facial-recognition le Fri, 30 Sep 2022 21:42:20 +0000.