Imaginez qu'une entreprise pour laquelle vous avez récemment postulé pour travailler utilise un programme d'intelligence artificielle pour analyser votre candidature afin d'accélérer le processus d'examen. Est-ce que ça vous fait flipper ? Eh bien, vous n'êtes pas seul.
Consumer Reports a récemment publié une enquête nationale révélant que les Américains sont mal à l'aise avec l'utilisation de l'intelligence artificielle (IA) et de la prise de décision algorithmique dans leur vie quotidienne. L'enquête menée auprès de 2 022 adultes américains a été menée par NORC à l'Université de Chicago et a examiné les attitudes du public sur diverses questions. Rapports sur les consommateurs trouvé :
- Près des trois quarts des personnes interrogées (72 %) ont déclaré qu'elles seraient « mal à l'aise » – dont près de la moitié (45 %) qui ont déclaré qu'elles seraient « très mal à l'aise » – avec un processus d'entretien d'embauche qui permettrait à l'IA de filtrer leur entretien en notant leur réponse. réponses et, dans certains cas, mouvements du visage.
- Environ les deux tiers ont déclaré qu'ils seraient « mal à l'aise » – dont environ quatre sur dix (39 %) qui ont déclaré qu'ils seraient « très mal à l'aise » – à l'idée de permettre aux banques d'utiliser de tels programmes pour déterminer s'ils sont qualifiés pour un prêt ou de permettre aux propriétaires de utilisez de tels programmes pour les sélectionner en tant que locataire potentiel.
- Plus de la moitié ont déclaré qu'ils seraient « mal à l'aise » – dont environ un tiers qui a déclaré qu'ils seraient « très mal à l'aise » – avec des systèmes de vidéosurveillance utilisant la reconnaissance faciale pour les identifier, et avec des systèmes hospitaliers utilisant l'IA ou des algorithmes pour faciliter le diagnostic et le traitement. planification.
Les résultats de l’enquête indiquent que les gens se sentent impuissants en raison de la perte de contrôle sur leur empreinte numérique et du fait que les entreprises et les agences gouvernementales adoptent la technologie de l’IA pour prendre des décisions qui changent leur vie. Pourtant, les États progressent à une vitesse vertigineuse pour mettre en œuvre des « solutions » en matière d’IA sans créer au préalable des lignes directrices significatives pour répondre à ces préoccupations raisonnables. En Californie, le gouverneur Newsom a publié un décret pour lutter contre l’utilisation de l’IA par le gouvernement et a récemment accordé à cinq fournisseurs l’autorisation de tester l’IA pour une myriade d’agences d’État. L’administration espère appliquer l’IA à des sujets tels que les inspections des établissements de santé, l’aide aux résidents qui ne parlent pas couramment l’anglais et le service client.
La grande majorité des personnes interrogées par Consumer Reports (83 %) ont déclaré qu'elles souhaiteraient savoir quelles informations ont été utilisées pour demander à l'IA ou à un algorithme informatique de prendre une décision à leur sujet. Une autre grande majorité (91 %) a déclaré qu'elle souhaiterait disposer d'un moyen de corriger les données lorsqu'un algorithme informatique est utilisé.
Alors que les États étudient la meilleure façon de protéger les consommateurs alors que les entreprises et les agences gouvernementales déploient un processus décisionnel algorithmique, l’EFF appelle à des normes strictes de transparence et de responsabilité. Les lois devraient avoir une approche « la vie privée avant tout » qui garantit que les gens ont leur mot à dire sur la manière dont leurs données privées sont utilisées. Au minimum, les personnes devraient avoir le droit d’accéder aux données utilisées pour prendre des décisions les concernant et avoir la possibilité de les corriger. De même, les agences et les entreprises utilisant la prise de décision automatisée devraient proposer une procédure d'appel. Les gouvernements devraient garantir que les consommateurs bénéficient d’une protection contre la discrimination dans la prise de décision algorithmique, tant par les entreprises que par le secteur public. Une autre priorité devrait être l’interdiction complète de nombreuses utilisations gouvernementales de la prise de décision automatisée, y compris la police prédictive .
Qu'il s'agisse de décider qui obtiendra un logement ou les meilleures hypothèques, qui obtiendra un entretien ou un emploi, ou sur qui les forces de l'ordre ou l'ICE enquêteront, les gens sont mal à l'aise avec la prise de décision algorithmique qui affectera leurs libertés. L’heure est désormais à des protections juridiques solides.
Cet article est une traduction automatique d’un post publié sur le site d’Electronic Frontier Foundation à l’URL https://www.eff.org/deeplinks/2024/08/americans-are-uncomfortable-automated-decision-making le Wed, 28 Aug 2024 19:01:14 +0000.