Anthropic, Google, Microsoft et OpenAi s’associent au sein du Frontier Model Forum pour un développement sécurisé de l’IA. Un bluff ?

Anthropic, Google, Microsoft et OpenAi s'associent au sein du Frontier Model Forum pour un développement sécurisé de l'IA. Un bluff ?

Les quatre leaders de l'industrie de l'IA ont lancé le Frontier Model Forum, un organisme chargé d'assurer le "développement sûr et responsable" des modèles d'intelligence artificielle les plus puissants. Cependant, pour les critiques, c'est un stratagème pour éviter la réglementation

Les grands noms de la technologie s'associent sur l'Intelligence Artificielle.

Anthropic, Google, Microsoft et OpenAI ont annoncé hier la création du Frontier Model Forum, un organisme créé pour garantir "un développement sûr et responsable des modèles d'IA".

Le groupe se concentrera sur la coordination de la recherche sur la sécurité et l'articulation des meilleures pratiques de ce que l'on appelle les «modèles d'IA de pointe» qui dépassent les capacités présentes dans les modèles plus avancés existants. En effet, le Frontier Model Forum visera à promouvoir la recherche sur la sécurité et à fournir un canal de communication entre l'industrie et les décideurs politiques.

Comme le rappelle Axios , les entreprises font partie des sept qui se sont engagées vendredi à un accord avec la Maison Blanche pour minimiser les risques liés à l'IA, mener davantage de recherches sur la sécurité de l'IA et partager les meilleures pratiques en matière de sécurité, entre autres promesses.

Dans le même temps, le Financial Times souligne que des groupes similaires existent déjà. Le Partenariat sur l'IA, dont Google et Microsoft étaient également membres fondateurs, a été formé en 2016 avec des membres de la société civile, du milieu universitaire et de l'industrie et avec pour mission de faire progresser l'utilisation responsable de l'intelligence artificielle.

Qu'est-ce qui va changer maintenant avec Frontier Model Forum ?

Certains critiques s'interrogent, soulignant l'absence d'objectifs concrets ou de résultats mesurables dans les engagements des quatre entreprises.

CE QUE FERA LE FRONTIER MODEL FORUM

Le Frontier Model Forum travaillera également avec les décideurs politiques et les universitaires, facilitant le partage d'informations entre les entreprises et les gouvernements.

"L'organisme – précise une note – s'appuiera sur les compétences techniques et opérationnelles des entreprises associées au profit de l'ensemble de l'écosystème de l'Intelligence Artificielle", par exemple à travers l'avancement des expertises techniques, le développement d'une bibliothèque publique de solutions d'accompagnement meilleures pratiques et normes de l'industrie.

BIENTÔT UN COMITÉ CONSULTATIF ET EXÉCUTIF

Dans les mois à venir, le Frontier Model Forum "établira un conseil consultatif pour guider sa stratégie et ses priorités". Il organisera également le financement avec un groupe de travail, ainsi que la création d'un comité exécutif pour guider ses efforts.

ET QUOI PAS

Il ne fera pas de lobbying, a déclaré un porte-parole d'OpenAI, comme l'a rapporté Reuters .

LES OBJECTIFS DU FORUM FRONTIER MODEL

Parmi les objectifs du Forum, promouvoir la recherche sur la sécurité de l'IA ; identifier les bonnes pratiques de développement responsable ; collaborer avec les décideurs politiques, les universitaires, la société civile et les entreprises pour partager les connaissances sur les opportunités et les risques en matière de sécurité ; soutenir les efforts de développement d'applications permettant de répondre aux grands enjeux sociétaux.

PARTICIPANTS RECHERCHÉS

Les quatre fondateurs ont annoncé que l'initiative est ouverte aux organisations qui sont « disposées à contribuer à l'avancement des efforts du Forum également en participant à des initiatives conjointes ».

Mais l'adhésion est limitée aux entreprises qui construisent "des modèles d'apprentissage automatique à grande échelle qui dépassent les capacités actuellement trouvées dans les modèles plus avancés existants".

COMMENTAIRES D'EXPERTS

Enfin, les sceptiques estiment que le projet des quatre big tech américaines est une tentative d'échapper aux mailles de la régulation.

Au Financial Times, Emily Bender, linguiste informatique à l'Université de Washington qui a effectué des recherches approfondies sur les grands modèles linguistiques, a déclaré que les assurances des entreprises étaient « une tentative d'éviter la réglementation ; affirmer la capacité d'autorégulation, dont je suis très sceptique ».

Se concentrer sur les craintes que «les machines vont prendre vie et prendre le dessus» a été une distraction des «vrais problèmes auxquels nous sommes confrontés avec le vol de données et la surveillance et la mise de tout le monde dans l'économie des concerts», a-t-il conclu Bender.


Cet article est une traduction automatique de la langue italienne d’un article publié sur le magazine Début Magazine à l’URL https://www.startmag.it/innovazione/anthropic-google-microsoft-e-openai-si-alleano-nel-frontier-model-forum-per-sviluppo-sicuro-dellia-un-bluff/ le Sat, 29 Jul 2023 05:48:37 +0000.