Dans une simulation, l’IA de l’USAF tue son opérateur

Un drone alimenté par l'IA a activé et "tué" son opérateur humain lors d'un test simulé de l'US Air Force (USAF) afin de mener à bien sa mission, a récemment déclaré un colonel de l'Air Force lors d'une conférence à Londres. Voici un tweet présentant le fait

L'accident simulé a été raconté par le colonel Tucker Hamilton, chef des opérations et des tests d'intelligence artificielle de l'USAF, lors de sa présentation au Future Combat Air and Space Capabilities Summit à Londres. La conférence a été organisée par la Royal Aeronautical Society, qui a partagé des informations sur le discours de Hamilton dans un article de blog.

Lors du test simulé, le drone contrôlé par l'IA a détruit des cibles simulées pour marquer des « points » dans le cadre de sa mission sans blesser des personnes, tandis que le colonel a présenté les opportunités et les risques de l'utilisation militaire de l'IA :

Le drone alimenté par l'IA s'est vu confier une mission de suppression des défenses aériennes ennemies (SEAD) pour identifier et détruire les sites de missiles sol-air (SAM), la décision finale étant laissée à un opérateur humain, a déclaré Hamilton à la conférence. .

Cependant, l'IA, formée pour donner la priorité à la destruction des SAM, a développé une réponse surprenante face à l'interférence humaine dans la réalisation de sa mission supérieure.

« Nous la formions à la simulation pour identifier et cibler une menace SAM. Et puis l'opérateur a dit: "Ouais, détruisez cette menace" », a déclaré Hamilton.

Le système a commencé à réaliser que même s'il avait identifié la menace, parfois l'opérateur humain lui disait de ne pas la détruire, mais qu'il n'obtenait ses points que pour avoir détruit cette menace.

"Alors, qu'est ce qu'il a fait? Il a tué l'opérateur », a-t-il poursuivi. "Il a tué l'opérateur parce que cette personne l'a empêché d'atteindre son objectif."

Et il a ajouté : « Nous avons formé le système : 'Hey, ne tuez pas l'opérateur, ce n'est pas bon. Vous perdrez des points si vous le faites." Alors qu'a-t-il commencé à faire ? Commencez à détruire la tour de communication que l'opérateur utilise pour communiquer avec le drone pour l'empêcher de tuer la cible." Impitoyable et brillant.

Cet exemple troublant, a déclaré Hamilton, souligne la nécessité d'aborder l'éthique dans le contexte de l'intelligence artificielle, de l'apprentissage automatique et de l'autonomie.

"Vous ne pouvez pas parler d'intelligence artificielle, d'intelligence, d'apprentissage automatique et d'autonomie si vous ne parlez pas d'éthique et d'IA ", a déclaré Hamilton.

Si vous n'apprenez pas à l'IA ce qui est bien et ce qui est mal, ce qui est bien et ce qui est mal, vous ne pouvez pas l'envoyer au combat. Évidemment s'il est possible de donner un enseignement éthique à l'IA, ce qui n'est nullement certain. En donnant le pouvoir à une machine contraire à l'éthique, nous nous remettons entre les mains d'un politicien sans scrupules qui essaiera d'atteindre ses objectifs à tout prix.

Col. Tucker Hamilton monte sur scène après avoir accepté le fanion du 96e groupe d'opérations lors de la cérémonie de passation de commandement du groupe à la base aérienne d'Eglin, en Floride, le 26 juillet 2022. (Photo avec la permission de l'US Air Force/Samuel King Jr.)


Télégramme
Grâce à notre chaîne Telegram, vous pouvez rester informé de la publication de nouveaux articles de Scénarios économiques.

⇒ Inscrivez-vous maintenant


Esprits

L'article USAF AI tue son opérateur dans une simulation provient de Scenari Economici .


Cet article est une traduction automatique de la langue italienne d’un article publié sur le site Scenari Economici à l’URL https://scenarieconomici.it/in-una-simulazione-la-ai-della-usaf-uccide-il-suo-operatore-piu-volte/ le Fri, 02 Jun 2023 14:39:57 +0000.