Les manuels d’utilisation de Video Analytics sont un guide de la dystopie

Les manuels d'utilisation de Video Analytics sont un guide de la dystopie

Il y a quelques années, lorsque vous avez vu une caméra de sécurité, vous avez peut-être pensé que le flux vidéo allait à un magnétoscope quelque part dans un back-office auquel on ne pouvait accéder qu'en cas de crime. Ou peut-être avez-vous imaginé un garde endormi qui n'a prêté qu'une demi-attention, et seulement quand ils ont découvert un crime en cours. À l'ère de la connectivité Internet, il est maintenant facile d'imaginer des images sur un serveur quelque part, avec toute image inaccessible, sauf à quelqu'un qui est prêt à avancer rapidement sur des centaines d'heures de séquences.

C'est peut-être ainsi que cela fonctionnait dans les films de braquage des années 1990, et c'est peut-être ainsi qu'un propriétaire trie encore ses propres images de caméra de sécurité à domicile. Mais ce n'est pas ainsi que les caméras fonctionnent dans l'environnement de sécurité actuel. Au lieu de cela, des algorithmes avancés surveillent chaque image de chaque caméra et documentent chaque personne, animal, véhicule et sac à dos alors qu'ils se déplacent dans l'espace physique, et donc de caméra à caméra, sur une période de temps prolongée.

Le terme "analyse vidéo" semble ennuyeux, mais ne le confondez pas avec le nombre de vues que vous avez obtenues sur votre tutoriel YouTube "Comment pocher un œuf". Dans un contexte d'application de la loi ou de sécurité privée, l'analyse vidéo fait référence à l'utilisation de l'apprentissage automatique, de l'intelligence artificielle et de la vision par ordinateur pour automatiser la surveillance omniprésente.

Grâce au projet Atlas of Surveillance , l'EFF a trouvé plus de 35 organismes d'application de la loi qui utilisent une technologie avancée d'analyse vidéo. Ce nombre augmente régulièrement à mesure que nous découvrons de nouveaux fournisseurs, contrats et capacités. Pour mieux comprendre comment ce logiciel fonctionne, qui l'utilise et de quoi il est capable, EFF a acquis un certain nombre de manuels d'utilisation. Et oui, ils sont encore plus effrayants qu'on ne le pensait.

Briefcam, qui est souvent fourni avec la technologie vidéo Genetec, est fréquemment utilisé dans les centres criminels en temps réel . Ce sont des installations de surveillance policière qui regroupent des images de caméras et d'autres informations de surveillance provenant d'un territoire. Des dizaines de services de police utilisent Briefcam pour rechercher des heures de séquences à partir de plusieurs caméras afin, par exemple, de se concentrer sur un visage particulier ou un sac à dos de couleur spécifique. Ce pouvoir du logiciel d'analyse vidéo serait particulièrement effrayant s'il était utilisé pour identifier les personnes exerçant leur droit de protestation du premier amendement.

Les systèmes Avigilon sont un peu plus opaques, car ils sont souvent vendus à des entreprises, qui ne sont pas soumises aux mêmes lois sur la transparence. À San Francisco, par exemple, Avigilon fournit les caméras et les logiciels pour au moins six districts d'amélioration des affaires (BID) et des districts de bénéfice communautaire (CBD). Ces quartiers recouvrent les quartiers de caméras de surveillance et retransmettent les images à une salle de contrôle centrale. L'analyse vidéo d'Avigilon peut entreprendre l'identification d'objets (par exemple, si des choses sont des voitures et des personnes), la lecture de plaques d'immatriculation et potentiellement la reconnaissance faciale.

Vous pouvez lire le manuel d'utilisation d'Avigilon ici , et le manuel Briefcam ici . Ce dernier a été obtenu par le biais du California Public Records Act par Dylan Kubeny , un étudiant journaliste à l'Université du Nevada, Reno Reynolds School of Journalism.

Mais quelles sont exactement les capacités de ces systèmes logiciels? Voici ce que nous avons appris:

Choisissez un visage, suivez un visage, évaluez un visage

Instructions pour sélectionner un visage

Si vous regardez des séquences vidéo sur Briefcam, vous pouvez sélectionner n'importe quel visage, puis l'ajouter à une "liste de surveillance". Ensuite, avec quelques clics supplémentaires, vous pouvez récupérer chaque morceau de vidéo que vous avez avec le visage de cette personne.

Briefcam attribue à toutes les images de visage 1 à 3 étoiles. Une étoile: l'IA ne peut même pas le reconnaître en tant que personne. Deux étoiles: confiance moyenne. Trois étoiles: confiance élevée. 

Détection d'événements inhabituels

Un graphique montrant les différences entre les algorithmes.

Avigilon dispose d'une paire d'algorithmes qu'il utilise pour prédire ce qu'il appelle des «événements inhabituels».

Le premier peut détecter des «mouvements inhabituels», essentiellement des motifs de pixels qui ne correspondent pas à ce que vous attendez normalement de la scène. Il faut deux semaines pour former cet algorithme d'auto-apprentissage. Le second peut détecter une «activité inhabituelle» impliquant des voitures et des personnes. Cela ne prend qu'une semaine pour s'entraîner.

En outre, il existe une "Détection de sabotage" qui, selon la façon dont vous la définissez, peut être déclenchée par une ombre en mouvement:

Entrez une valeur comprise entre 1 et 10 pour sélectionner la sensibilité d'une caméra aux événements de sabotage. La falsification est un changement soudain du champ de vision de la caméra, généralement causé par une personne qui déplace la caméra de manière inattendue. Réduisez le paramètre si de petits changements dans la scène, comme des ombres en mouvement, provoquent des événements de sabotage. Si la caméra est installée à l'intérieur et qu'il est peu probable que la scène change, vous pouvez augmenter le paramètre pour capturer des événements plus inhabituels.

Cheveux roses et manches courtes

Outil de couleur

Avec le filtre d'ombre de Briefcam , une personne recherchant une foule peut filtrer par la couleur et la longueur des vêtements, des accessoires ou même des cheveux. Le manuel de Briefcam indique même que le programme peut rechercher une foule ou une grande collection de séquences pour une personne aux cheveux roses.

En outre, les utilisateurs de BriefCam peuvent effectuer une recherche spécifique en fonction de ce qu’une personne porte et d’autres « attributs personnels ». Les forces de l'ordre qui tentent de passer au crible les images de la foule ou des heures de vidéo pourraient rechercher quelqu'un en spécifiant un jean bleu ou une chemise jaune à manches courtes.

Homme, Femme, Enfant, Animal

BriefCam trie les personnes et les objets dans des catégories spécifiques pour les rendre plus faciles à rechercher par le système. BriefCam divise les gens en trois catégories: «homme», «femme» et «enfant». Des études scientifiques montrent que ce type de catégorisation peut mal identifier les personnes non conformes, non binaires, trans et handicapées dont le corps peut ne pas être conforme aux critères rigides recherchés par le logiciel lors du tri des personnes. Une telle identification erronée peut avoir des effets néfastes dans le monde réel, comme déclencher des enquêtes erronées ou refuser l'accès.

Le logiciel décompose également d'autres catégories, notamment la distinction entre les différents types de véhicules et la reconnaissance des animaux.

Alerte de proximité

Un exemple de filtre de proximité

En plus de surveiller le nombre total d'objets dans un cadre ou la taille relative des objets, BriefCam peut détecter la proximité entre les personnes et la durée de leur contact. Cela pourrait faire de BriefCam un candidat de choix pour le « lavage COVID-19 », ou le changement de marque de la technologie de surveillance invasive comme une solution potentielle à la crise actuelle de santé publique.

Avigilon affirme également qu'il peut détecter la température de la peau , ce qui soulève une autre affirmation possible d'intérêt pour la santé publique. Mais, comme nous l'avons déjà expliqué , l'imagerie thermique à distance peut souvent être très imprécise et ne pas détecter les porteurs de virus asymptomatiques.

La santé publique est un effort collectif. Le déploiement de technologies de surveillance invasives qui pourraient facilement être utilisées pour surveiller les manifestants et suivre les personnalités politiques est susceptible de susciter une plus grande méfiance à l'égard du gouvernement. Cela rendra la collaboration en santé publique moins probable, pas plus.

Listes de surveillance

Une fonctionnalité disponible à la fois avec Briefcam et Avigilon sont des listes de surveillance, et nous ne parlons pas d'un carnet de notes plein de noms. Au lieu de cela, les systèmes vous permettent de télécharger des dossiers de visages et des feuilles de calcul de plaques d'immatriculation, puis l'algorithme trouvera des correspondances et suivra le mouvement des cibles. Les listes de surveillance sous-jacentes peuvent être extrêmement problématiques. Par exemple, l'EFF a examiné des centaines de documents de politique pour les lecteurs automatisés de plaques d'immatriculation (RAPI) et il est très rare pour une agence de décrire les règles d'ajout d'une personne à une liste de surveillance.

Véhicules dans le monde

Souvent, les RAPI sont associés à l'Angleterre, berceau de la technologie, et aux États-Unis, où elle s'est métastasée. Mais Avigilon vise déjà de nouveaux marchés et a programmé sa technologie pour identifier les plaques d'immatriculation sur six continents . 

Il convient de noter qu'Avigilon appartient à Motorola Solutions, la même société qui exploite le tristement célèbre fournisseur de RAPI Vigilant Solutions.

Conclusion

Nous entrons dans une période dangereuse. Le manque de surveillance de l'acquisition par la police et de l'utilisation de la technologie de surveillance a des conséquences dangereuses pour les personnes mal identifiées ou prises dans les prophéties auto-réalisatrices de la police de l' IA .

En fait, le Dr Rashall Brackney, le chef de la police de Charlottesville, a décrit ces analyses vidéo comme perpétuant les préjugés raciaux lors d' un récent panel . L'analyse vidéo "est souvent incorrecte", a-t-elle déclaré. "À maintes reprises, ils créent de faux positifs dans l'identification des suspects."

Cette nouvelle ère de capacités d'analyse vidéo pose au moins deux problèmes. Premièrement, la police pourrait compter de plus en plus sur cette technologie secrète pour dicter sur qui enquêter et arrêter, par exemple en identifiant le mauvais suspect à capuchon et sac à dos. Deuxièmement, les personnes qui assistent à des rassemblements politiques ou religieux craindront à juste titre d'être identifiées, suivies et punies.

Plus d'une douzaine de villes aux États-Unis ont interdit l'utilisation par le gouvernement de la reconnaissance faciale, et c'est un bon début. Mais cela ne va pas plus loin. Les sociétés de surveillance planifient déjà des moyens de contourner ces interdictions en utilisant d'autres types d'outils d'analyse vidéo pour identifier les personnes. Le moment est venu de faire pression pour une législation plus complète pour défendre nos libertés civiles et tenir la police responsable.

Pour en savoir plus sur les centres de criminalité en temps réel, lisez notre dernier rapport ici .

Source de l'image de la bannière: proposition de prix du service de police de Mesquite.


Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2020/11/video-analytics-user-manuals-are-guide-dystopia le Thu, 19 Nov 2020 20:39:58 +0000.