Le Royaume-Uni amène son AI Safety Institute à San Francisco

Le gouvernement britannique a annoncé son intention d’ouvrir cet été le premier bureau à l’étranger de son AI Safety Institute, aux États-Unis.

Lire aussi : Le rôle de l’accord de sécurité de l’IA entre le Royaume-Uni et les États-Unis dans l’évolution technologique

Dans un communiqué publié lundi , la secrétaire britannique à la science et à la technologie, Michelle Donelan, a déclaré que le nouveau bureau américain serait situé à San Francisco. La ville abrite certaines des plus grandes sociétés d’intelligence artificielle, notamment OpenAI, Anthropic et Inflection AI.

Le Royaume-Uni cherche à renforcer son partenariat avec les États-Unis sur la sécurité de l'IA

Le bureau basé aux États-Unis cherchera à recruter une équipe de personnel technique dirigée par un directeur de recherche lorsqu'il commencera ses opérations plus tard cette année. Le siège londonien de l'Institut compte actuellement une équipe de plus de 30 techniciens.

Le secrétaire à la Technologie a déclaré que l'expansion de l'Institut représente le leadership britannique en matière d'intelligence artificielle et qu'elle établira une étroite collaboration avec le gouvernement américain.

Il s'agit d'un moment charnière pour la capacité du Royaume-Uni à étudier à la fois les risques et le potentiel de l'IA dans une perspective mondiale, renforçant ainsi notre partenariat avec les États-Unis et ouvrant la voie à d'autres pays pour qu'ils s'appuient sur notre expertise alors que nous continuons à dominer le monde en matière d'intelligence artificielle. intelligence. sécurité.

Michelle Donelan, secrétaire britannique à la science et à la technologie.

Donelan affirme que l'institut s'est développé de « force en force »

Le gouvernement britannique a créé l’AI Safety Institute en novembre 2023. Il a déclaré que l’objectif était de « minimiser les surprises pour le Royaume-Uni et l’humanité résultant des progrès rapides et inattendus de l’intelligence artificielle ».

Lire aussi : Le gouvernement britannique annonce la création de l'AI Safety Institute

L’Institut se concentre principalement sur l’évaluation des systèmes d’IA « frontières » du point de vue de la sécurité nationale. Grâce à cette mesure, le gouvernement britannique a déclaré qu’il serait en mesure d’élaborer des réponses politiques et réglementaires efficaces aux applications d’IA déployées dans sa juridiction.

Depuis que le Premier ministre et moi avons fondé l’AI Safety Institute, celui-ci n’a cessé de se renforcer en un peu plus d’un an.

Michelle Donelan, secrétaire britannique à la science et à la technologie.

L'Institut publie les résultats de ses tests sur modèles

L'AI Safety Institute du Royaume-Uni serait la première organisation soutenue par le gouvernement à publier les résultats des tests de sécurité de ses modèles d'IA. L'Institut a testé cinq grands modèles de langage accessibles au public, bien qu'il ne précise pas leurs noms.

La sécurité de l’IA est encore un domaine très jeune et émergent. […] Notre ambition est de continuer à repousser les limites de ce domaine en développant des évaluations de pointe, avec un accent particulier sur les risques pour la sécurité nationale.

Ian Hogarth, président de l'AI Safety Institute du Royaume-Uni.

Il a déclaré que plusieurs modèles ont complété ses défis en matière de cybersécurité. Cependant, ils se sont tous révélés très vulnérables aux jailbreaks de base. Certains modèles ont produit des résultats néfastes même en l’absence de tentatives délibérées pour contourner les garanties.


Reportage cryptopolitique par Ibiam Wayas