L’IA apparaît comme un outil pour lutter contre la fraude et améliorer la surveillance pendant la pandémie

Dans un contexte d’augmentation des volumes de données et d’évolution des modèles de fraude, les agences fédérales reconnaissent le potentiel des outils d’intelligence artificielle (IA) pour améliorer la surveillance et contrecarrer les activités frauduleuses. Le Pandemic Response Accountability Committee (PRAC), chargé de superviser les dépenses liées à la pandémie, a identifié l’IA comme un outil précieux pour identifier les fraudes potentielles dans les données sur les dépenses liées à la pandémie. Grâce à la capacité de l'IA à analyser rapidement de grandes quantités de données, les agences explorent son potentiel pour signaler les activités frauduleuses et protéger les programmes de prestations fédéraux.

Le rôle de l’intelligence artificielle dans l’identification des activités frauduleuses

Brien Lorenze, directeur des données du PRAC, a souligné l'importance de l'IA dans la lutte contre la fraude dans le cadre des dépenses liées à la pandémie. En tirant parti des capacités de l’intelligence artificielle, les agences peuvent identifier les identités synthétiques et les sociétés écrans que les fraudeurs pourraient exploiter pour accéder de manière inappropriée aux prestations fédérales. Lorenze a souligné « l’environnement riche en cibles » pour l’IA dans la surveillance de la pandémie et son potentiel à accélérer l’identification de modèles frauduleux.

Le PRAC détient environ 95 accords d'utilisation des données d'agence et gère environ un milliard d'enregistrements de transactions provenant de huit agences. Naviguer dans ce vaste ensemble de données pose des défis en raison des différences de règles et de gouvernance autour de l'utilisation des données. Garantir l’utilisation éthique et l’exactitude des outils d’IA reste une priorité pour l’administration Biden.

Le potentiel de l’IA pour lutter contre la fraude évolue

Alors que l’administration Biden travaille à une mise en œuvre éthique de l’IA, les agences sont aux prises avec la menace croissante de stratagèmes frauduleux accélérés par des modèles malveillants à langage large tels que FraudGPT et WormGPT. Ces modèles permettent aux fraudeurs de créer plus efficacement des logiciels malveillants et des attaques de phishing, posant ainsi de nouveaux défis aux agences qui luttent contre la fraude.

Lorenze a reconnu que des outils tels que FraudGPT et WormGPT peuvent aider les fraudeurs à mener des attaques plus sophistiquées, soulignant la nécessité pour les agences de comprendre ces outils pour les contrer efficacement. La dualité de l’IA oblige les agences à comprendre son potentiel à permettre la fraude et sa capacité à identifier les activités frauduleuses.

Améliorer l'intelligence avec les outils d'IA

Heather Martin, de la Direction des données et de l'innovation numérique de l'Agence nationale de renseignement géospatial, a souligné le potentiel de l'intelligence artificielle pour aider les analystes à naviguer dans de vastes volumes d'images satellite. À mesure que le volume de données augmente, les outils d’IA aident les analystes du renseignement à localiser efficacement les objets, leur permettant ainsi de se concentrer sur des tâches plus prioritaires et sur une analyse approfondie.

Même si l’IA est prometteuse, des agences comme les services américains de citoyenneté et d’immigration (USCIS) prennent des mesures prudentes en vue de son adoption. Damian Kostiuk, directeur adjoint des données à l'USCIS, a souligné que les cas d'utilisation initiaux de l'IA sont relativement triviaux en raison de considérations juridiques. L'USCIS utilise l'intelligence artificielle pour pré-rédiger les documents, mais la surveillance humaine reste essentielle pour garantir l'exactitude et la conformité réglementaire.

Enjeux environnementaux et partage de données

Kostiuk a souligné que l'IA nécessite de nombreuses données pour la formation, mais que de nombreuses agences fédérales fonctionnent dans des silos de données, ce qui entrave la disponibilité d'ensembles de données complets pour les modèles d'IA. Le partage de données entre agences reste un défi, limitant l’efficacité de la technologie de l’IA.

Le ministère du Commerce mène actuellement un rapport d'évaluation de la maturité des données à l'échelle de l'agence pour relever ces défis en matière de données. Cette évaluation vise à évaluer la manière dont les agences gouvernent, gèrent et exploitent les données, en identifiant les lacunes et les opportunités d'amélioration. En améliorant la qualité des données, la gouvernance, l’accessibilité et le partage, les agences peuvent exploiter plus efficacement le potentiel de l’intelligence artificielle.

L’évolution du paysage de la fraude, entraînée par des modèles linguistiques avancés, oblige les agences à utiliser l’intelligence artificielle pour comprendre et combattre les activités frauduleuses. L'accent mis par le PRAC sur l'exploitation de l'IA pour identifier les fraudes potentielles dans les dépenses liées à la pandémie illustre la reconnaissance croissante du potentiel de l'IA pour simplifier la surveillance et améliorer les capacités de détection des fraudes. Alors que les agences avancent avec prudence, il sera essentiel de relever les défis liés aux données et d’améliorer leur utilisation pour libérer le véritable potentiel de l’IA dans la lutte contre la fraude et renforcer la surveillance.