La reconnaissance faciale ne se limite pas à l’identification et à la vérification des visages : c’est également le regroupement de photos, l’analyse de la course, le suivi en temps réel, etc.

La reconnaissance faciale ne se limite pas à l'identification et à la vérification des visages : c'est également le regroupement de photos, l'analyse de la course, le suivi en temps réel, etc.

Les gouvernements et les entreprises suivent la façon dont nous menons nos vies avec un marqueur unique que la plupart d'entre nous ne peuvent pas cacher ou changer : nos propres visages. Partout au pays, les communautés repoussent les lois qui restreignent cette technologie dangereuse. En réponse, certains gouvernements et entreprises affirment que ces lois ne devraient s'appliquer qu'à certaines formes de reconnaissance faciale, telles que l'identification des visages, et pas à d'autres, telles que le regroupement des visages.

Nous ne sommes pas d'accord. Toutes les formes de reconnaissance faciale sont une menace pour la vie privée, la liberté d'expression et la justice raciale. Cet article explore de nombreux types de reconnaissance faciale et explique pourquoi tous doivent être traités par des lois.

Qu'est-ce que la reconnaissance faciale ?

Au niveau le plus élémentaire, la technologie de reconnaissance faciale prend des images de visages humains et essaie d'extraire des informations sur les personnes qui les composent.

Voici comment cela fonctionne habituellement aujourd'hui :

Tout d'abord, l'image est automatiquement traitée pour identifier ce qui est et n'est pas un visage. C'est ce qu'on appelle souvent la « détection de visage ». Il s'agit d'une condition préalable à toutes les formes plus sophistiquées de reconnaissance faciale dont nous discutons ci-dessous. En soi, la détection des visages n'est pas nécessairement préjudiciable à la vie privée des utilisateurs. Cependant, il existe une disparité raciale importante dans de nombreuses technologies de détection des visages.

Ensuite, le système extrait les caractéristiques de chaque image d'un visage. Les données d'image brutes sont traitées en un ensemble plus petit de nombres qui résument les caractéristiques distinctives d'un visage. C'est ce qu'on appelle souvent une « empreinte faciale ».

Les empreintes faciales, plutôt que les images faciales brutes, peuvent être utilisées pour toutes les tâches troublantes décrites ci-dessous. Un ordinateur peut comparer l'empreinte faciale de deux images distinctes pour essayer de déterminer s'il s'agit de la même personne. Il peut également essayer de deviner d'autres caractéristiques (comme le sexe et l'émotion) de l'individu à partir de l'empreinte faciale.

Correspondance de visage

La classe de reconnaissance faciale la plus largement déployée est souvent appelée « appariement des visages ». Il essaie de faire correspondre deux empreintes faciales ou plus pour déterminer s'il s'agit de la même personne.

Tout système de reconnaissance faciale utilisé pour le « suivi », le « regroupement » ou la « vérification » d'une personne inconnue peut facilement être utilisé pour « l'identification »

L'appariement des visages peut être utilisé pour lier des photographies de personnes inconnues à leur véritable identité. Cela se fait souvent en prenant une empreinte faciale à partir d'une nouvelle image (par exemple prise par une caméra de sécurité) et en la comparant à une base de données d'empreintes faciales « connues » (par exemple une base de données gouvernementale de photos d'identité). Si l'empreinte inconnue est suffisamment similaire à l'une des empreintes connues, le système renvoie une correspondance potentielle. C'est ce qu'on appelle souvent « l'identification du visage ».

L'appariement des visages peut également être utilisé pour déterminer si deux empreintes faciales proviennent du même visage, sans nécessairement savoir à qui appartient ce visage. Par exemple, un téléphone peut vérifier le visage d'un utilisateur pour déterminer s'il doit se déverrouiller, souvent appelé "vérification faciale". il peut ne pas identifier ces personnes par leur nom, souvent appelé « regroupement de visages ». Cette technologie peut être utilisée pour des correspondances un-à-un (sont deux photographies de la même personne ?), des correspondances un-à-plusieurs (cette photo de référence correspond-elle à l'une quelconque d'un ensemble d'images ?), ou plusieurs-à- plusieurs correspondances (combien de visages uniques sont présents dans un ensemble d'images ?). Même sans associer de visages aux noms, la correspondance de visages peut être utilisée pour suivre les mouvements d'une personne en temps réel, par exemple, dans un magasin ou dans une ville, souvent appelé « suivi du visage ».

Toutes les formes de correspondance faciale soulèvent de graves problèmes de droits numériques, notamment l'identification, la vérification, le suivi et le regroupement des visages. Les législateurs doivent les aborder tous. Tout système de reconnaissance faciale utilisé pour le « suivi », le « regroupement » ou la « vérification » d'une personne inconnue peut également être facilement utilisé pour « l'identification ». La technologie sous-jacente est souvent exactement la même. Par exemple, il suffit de lier un ensemble d'empreintes faciales « connues » à un groupe d'empreintes faciales « inconnues » pour transformer le regroupement en identification.

Même si la technologie d'identification des visages n'est jamais utilisée, les technologies de regroupement et de suivi des visages peuvent menacer la vie privée, la liberté d'expression et l'équité. Par exemple, la police peut utiliser la technologie de suivi du visage pour suivre un manifestant non identifié d'un rassemblement à son domicile ou sa voiture, puis l'identifier avec une base de données d'adresse ou de plaque d'immatriculation. Ou la police pourrait utiliser la technologie de regroupement de visages pour créer un tableau multi-photos d'un manifestant non identifié particulier, et identifier manuellement le manifestant en comparant ce tableau à une base de données de photos d'identité, où une telle identification manuelle aurait été impossible sur la base d'une seule photo du manifestant. .

Précision, erreur et biais

En 2019, Nijeer Parks a été arrêté à tort après avoir été mal identifié par un système de reconnaissance faciale . Bien qu'il se trouve à 30 miles de la scène du crime présumé, Parks a passé 10 jours en prison avant que la police n'admette son erreur.

Bien qu'il se trouve à 30 miles de la scène du crime présumé, Nijeer Parks a passé 10 jours en prison après avoir été mal identifié par un système de reconnaissance faciale.

Nijeer Parks est au moins la troisième personne à être faussement arrêtée en raison d'une technologie de reconnaissance faciale défectueuse. Ce n'est pas un hasard si les trois personnes étaient des hommes noirs. La reconnaissance faciale n'est jamais parfaite, mais elle est de manière alarmante plus sujette aux erreurs lorsqu'elle est appliquée à quiconque n'est pas un homme blanc et cisgenre. Dans une étude pionnière de 2018, Joy Buolamwini et le Dr Timnit Gebru ont montré que les systèmes d'identification des visages identifiaient mal les femmes de couleur à plus de 40 fois le taux des hommes blancs. Plus récemment, les tests du NIST sur divers systèmes de reconnaissance faciale à la pointe de la technologie ont confirmé une tendance large et spectaculaire de taux disparates de «faux positifs» selon les données démographiques, avec des taux d'erreur plus élevés pour les visages qui n'étaient pas blancs et masculins.

De plus, les systèmes d'identification des visages qui peuvent être plus performants sur les références de laboratoire, par exemple en essayant d'identifier des tirs à la tête bien éclairés, sont généralement beaucoup moins précis dans le monde réel. Lorsque cette même technologie se voit confier une tâche plus réaliste, comme identifier les personnes qui franchissent la porte d'embarquement d'un aéroport, elle fonctionne beaucoup moins bien .

Pour de nombreuses raisons, le déploiement généralisé de l'identification faciale, même s'il était précis et impartial, est incompatible avec une société libre. Mais la technologie d'aujourd'hui est loin d'être exacte et elle est profondément biaisée d'une manière qui amplifie le racisme systématique existant dans notre système de justice pénale.

Nous nous attendons à ce que les chercheurs trouvent les mêmes types d'erreurs et de biais inacceptables dans le suivi des visages et le regroupement, comme cela a déjà été trouvé dans l'identification des visages. C'est une raison de plus pour laquelle les lois sur la protection de la vie privée doivent traiter toutes les formes de reconnaissance faciale.

Une autre forme de reconnaissance faciale : l'analyse faciale

La reconnaissance faciale a de nombreuses applications au-delà de la correspondance d'une empreinte faciale à une autre. Il est également utilisé pour essayer de deviner les caractéristiques démographiques, l'état émotionnel, etc. d'une personne, en fonction de ses caractéristiques faciales. Une industrie en plein essor prétend utiliser ce que l'on appelle souvent « l'analyse du visage » ou « l'inférence du visage » pour essayer d'extraire ce type d'informations auxiliaires à partir d'images de visages en direct ou enregistrées. L'analyse du visage peut être utilisée en combinaison avec d'autres technologies, comme le suivi oculaire, pour examiner la réaction du visage à ce que vous regardez.

Analyse démographique

Certains fournisseurs affirment qu'ils peuvent utiliser des technologies de reconnaissance faciale pour attribuer des attributs démographiques à leurs cibles, notamment le sexe, la race, l'origine ethnique, l'orientation sexuelle et l'âge.

Il est douteux qu'une telle analyse démographique du visage puisse jamais vraiment « fonctionner ». Il repose sur l'hypothèse que les différences dans la structure d'un visage reflètent parfaitement les traits démographiques, alors que dans de nombreux cas, ce n'est pas vrai. Ces données démographiques sont souvent des constructions sociales et de nombreuses personnes ne correspondent pas parfaitement aux étiquettes sociétales.

Lorsqu'elle « fonctionne », du moins selon celui qui la déploie, la technologie d'inférence de visage démographique peut être extrêmement dangereuse pour les groupes marginalisés. Par exemple, ces systèmes permettent aux commerçants de discriminer les gens sur la base du sexe ou de la race. Les magasins peuvent tenter d'utiliser l'analyse faciale pour orienter les clients non identifiés vers différents produits et remises en fonction de leur sexe ou de leur état émotionnel – une tentative malavisée, qu'elle réussisse ou échoue. À l'extrême, l'inférence démographique automatique peut aider à automatiser le génocide .

Ces technologies peuvent également nuire aux personnes en ne fonctionnant pas. Par exemple, la « reconnaissance du genre » identifiera à tort toute personne qui ne présente pas de caractéristiques de genre traditionnelles et peut nuire aux personnes transgenres, non binaires, de genre non conforme et intersexes. C'est pourquoi certains militants font campagne pour interdire la reconnaissance automatique du genre et de l'orientation sexuelle .

Analyse des émotions

L'analyse du visage peut également identifier les émotions ou « l'affect » d'une personne, à la fois en temps réel et sur des images historiques. Plusieurs entreprises vendent des services qui, selon eux, peuvent déterminer comment une personne se sent en fonction de son visage.

Cette technologie est une pseudoscience : au mieux, elle pourrait apprendre à identifier certaines normes culturelles. Mais les gens expriment souvent leurs émotions différemment, en fonction de la culture, du tempérament et de la neurodivergence.

Cette technologie est une pseudoscience : au mieux, elle pourrait apprendre à identifier certaines normes culturelles. Mais les gens expriment souvent leurs émotions différemment, en fonction de la culture, du tempérament et de la neurodivergence. Essayer de découvrir une correspondance universelle entre « expression faciale » et « émotion » est une chasse au snipe. L'institut de recherche AI ​​Now a cité le manque de base scientifique de cette technologie et le potentiel d'abus discriminatoires dans un rapport cinglant de 2019 , et a appelé les régulateurs à interdire son utilisation pour des décisions importantes concernant des vies humaines.

Malgré le manque de soutien scientifique, la reconnaissance des émotions est populaire parmi de nombreux annonceurs et chercheurs de marché. Ayant atteint les limites des enquêtes de consommation, ces entreprises cherchent désormais à évaluer la façon dont les gens réagissent aux médias et aux publicités par l'observation vidéo, avec ou sans leur consentement.

Encore plus alarmant, ces systèmes peuvent être déployés pour la police « avant le crime » – en utilisant des suppositions assistées par ordinateur sur l'état mental pour examiner les personnes qui n'ont rien fait de mal. Par exemple, le département américain de la Sécurité intérieure a dépensé des millions pour un projet appelé « FAST » , qui utiliserait l'inférence faciale, entre autres, pour détecter les « malveillances » et la « tromperie » chez les personnes dans les aéroports et aux frontières. L'analyse du visage peut également être intégrée dans ce que l'on appelle les « détecteurs d'agression », qui sont censés prédire quand quelqu'un est sur le point de devenir violent. Ces systèmes sont extrêmement biaisés et loin d'être fiables, mais seront probablement utilisés pour justifier une force excessive ou une détention injustifiée contre quiconque, selon le système, est « en colère » ou « trompeur ». L'utilisation d'algorithmes pour identifier les personnes à des fins de détention ou de contrôle disciplinaire est extrêmement lourde et fera bien plus pour renforcer les préjugés existants que pour rendre quiconque plus sûr.

Certains chercheurs sont même allés jusqu'à suggérer que la « criminalité » peut être prédite sur le visage. Ce n'est manifestement pas vrai. Une telle technologie exacerberait de manière inacceptable les problèmes plus importants liés à la police prédictive .

Passer à l'action

Atténuer les risques soulevés par les nombreuses formes de reconnaissance faciale exige que chacun de nous soit habilité en tant que décideur ultime dans la manière dont nos données biométriques sont collectées, utilisées ou partagées. Pour vous protéger, vous et votre communauté, contre la collecte non autorisée de données biométriques par les entreprises, contactez vos représentants et dites-leur de se joindre aux sénateurs Jeff Merkley et Bernie Sanders pour plaider en faveur d'une loi nationale sur la confidentialité des informations biométriques .

L'utilisation par le gouvernement de la technologie de reconnaissance faciale est une menace encore plus grande pour nos libertés essentielles. C'est pourquoi les agences gouvernementales doivent mettre fin à la pratique, point final. Plus d'une douzaine de communautés de San Francisco à Boston ont déjà pris des mesures en interdisant à leurs agences locales d'utiliser la technologie. Pour savoir comment vous pouvez prendre des mesures dès aujourd'hui pour mettre fin à l'utilisation par le gouvernement de la technologie de reconnaissance faciale dans votre région, visitez la page de ressources About Face de l' EFF .

Pour une taxonomie proposée des différents types de reconnaissance faciale abordés dans cet article, consultez cette liste de termes couramment utilisés .


Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2021/10/face-recognition-isnt-just-face-identification-and-verification le Thu, 07 Oct 2021 16:14:27 +0000.