La victoire! Le tribunal du New Jersey décide que la police doit donner au défendeur les algorithmes de reconnaissance faciale utilisés pour l’identifier

La victoire! Le tribunal du New Jersey décide que la police doit donner au défendeur les algorithmes de reconnaissance faciale utilisés pour l'identifier

Dans une victoire pour la transparence dans l'utilisation de la reconnaissance faciale par la police, une cour d'appel du New Jersey a statué aujourd'hui que les procureurs de l'État – qui ont inculpé un homme pour vol à main armée après que la technologie a montré qu'il était un "match possible" pour le suspect – doivent se tourner vers le des informations détaillées sur le logiciel de numérisation faciale utilisé, y compris son fonctionnement, son code source et son taux d'erreur.

Qualifiant la reconnaissance faciale de "technologie nouvelle et non testée", le tribunal de l' État du New Jersey c. Francisco Arteaga a estimé que le défendeur serait privé des droits à une procédure régulière à moins qu'il ne puisse accéder aux matières premières utilisées par la police pour l'identifier et tester sa fiabilité. construire une défense. Le fonctionnement interne du logiciel de reconnaissance faciale est essentiel pour empêcher l'identification des témoins, contester l'enquête de l'État et créer un doute raisonnable, a déclaré le tribunal.

La décision est une victoire claire pour la justice, l'équité et la transparence. De nombreuses études montrent que les algorithmes de reconnaissance faciale ne sont pas toujours fiables et que les taux d'erreur augmentent considérablement lorsqu'ils impliquent des visages de personnes de couleur , en particulier des femmes noires , ainsi que des personnes trans et non binaires . Mais malgré une inexactitude accrue pour les membres des communautés vulnérables souvent ciblées par la police, cela n'a pas empêché les forces de l'ordre d'adopter et d'utiliser à grande échelle cet outil peu fiable pour identifier les suspects dans les enquêtes criminelles.

L'EFF, ainsi que le Centre d'information sur la confidentialité électronique (EPIC) et l'Association nationale des avocats de la défense pénale (NACDL), ont déposé un mémoire d'amicus judiciaire dans cette affaire au nom du défendeur, arguant que le tribunal devrait autoriser une découverte solide concernant l'utilisation par les forces de l'ordre de technologie de reconnaissance.

Le tribunal a accepté. Les informations sur le risque substantiel d'erreur dans la technologie de reconnaissance faciale (FRT) présentées par le témoin expert et les amici du défendeur, y compris EFF, "nous fournissent des preuves convaincantes de la nouveauté de la FRT, de l'agence humaine impliquée dans la génération d'images et du fait que la véracité de la FRT n'a été testé ou trouvé fiable sur la base de preuves par aucun tribunal du New Jersey », a déclaré le panel d'appel de trois juges.

À Arteaga , une recherche par reconnaissance faciale menée par le département de police de New York pour la police du New Jersey a été utilisée pour déterminer qu'Arteaga correspondait à l'auteur d'un vol à main armée dans un magasin du New Jersey.

Voici comment cela a fonctionné. Les détectives du New Jersey ont généré une image fixe du suspect dérivée d'images de caméras de surveillance. Il a d'abord été analysé par des enquêteurs du New Jersey, qui n'ont trouvé aucune correspondance pour l'image dans leurs bases de données de numérisation de visage. Les détectives ont ensuite envoyé toutes les images de surveillance à la section de reconnaissance faciale du Real Time Crime Center (RTCC) du département de police de New York. Un détective du centre a capturé une image fixe à partir des images, l'a comparée aux bases de données du centre et a proposé Arteaga comme "correspondance possible". Les détectives du New Jersey ont montré son image à deux témoins, qui l'ont identifié comme étant le voleur.

Malgré la centralité de la correspondance dans l'affaire, rien n'a été divulgué à la défense sur l'algorithme qui l'a généré, pas même le nom du logiciel utilisé. M. Arteaga a demandé des informations détaillées sur le processus de recherche, un expert témoignant de la nécessité de ce matériel, mais le tribunal de première instance a rejeté ces demandes.

La police ne devrait pas être autorisée à utiliser la technologie « boîte noire » développée par des fabricants de logiciels privés dans des affaires pénales sans examen minutieux. Il est impossible de savoir exactement comment les algorithmes du logiciel arrivent à leurs conclusions sans regarder leur code source. Chaque algorithme est développé par différents concepteurs et formé à l'aide de différents ensembles de données.

Les défendeurs doivent être autorisés à examiner FRT dans son intégralité. Et cela inclut la description de l'ensemble du processus, les bases de données de visages utilisées, le code source du logiciel et l'endroit où l'entrée humaine est incorporée. Bien que le jugement humain soit censé remédier aux erreurs algorithmiques, en réalité, les humains sont plus susceptibles de commettre le même type d'erreurs, ce qui aggrave le problème de biais et d'inexactitude pour les mêmes groupes démographiques. C'est pourquoi il n'est pas surprenant que les recherches par reconnaissance faciale aboutissent régulièrement à des arrestations injustifiées .

Le tribunal d' Arteaga l'a apprécié et a statué qu'en vertu de la « règle Brady », qui oblige le gouvernement à fournir toutes les preuves matérielles susceptibles de disculper le défendeur, M. Arteaga avait droit à des informations concernant le FRT utilisé. Le tribunal a catégoriquement rejeté l'argument de l'État selon lequel il était spéculatif de savoir si les informations du FRT seraient disculpatoires. Il a rappelé à l'accusation que "[d]ivant la nouveauté de FRT, personne, y compris nous, ne peut raisonnablement conclure sans découvrir si la preuve est disculpatoire"

La reconnaissance faciale est utilisée dans tout le pays pour identifier les suspects, et nous espérons que d'autres tribunaux reconnaîtront que le droit à une procédure régulière, protégé par la Constitution, exige que les accusés soient autorisés à examiner et à remettre en question la fiabilité de cette technologie souvent défectueuse.


Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2023/06/victory-new-jersey-court-rules-police-must-give-defendant-facial-recognition le Thu, 08 Jun 2023 00:16:49 +0000.