Ce que l’on sait du fonds d’intelligence artificielle Anthropic, Google, Microsoft et OpenAI

Ce que l'on sait du fonds d'intelligence artificielle Anthropic, Google, Microsoft et OpenAI

Un pool d'éditeurs de logiciels à l'origine de la création d'un nouveau AI Safety Fund, un fonds d'intelligence artificielle doté de plus de 10 millions de dollars

Tous les protagonistes du secteur sont là, c'est à dire ceux qui ont le plus progressé ou investi le plus dans l'IA générative au cours de l'année 2023 : Anthropic , Google, Microsoft et OpenAI. Ce sont eux qui constituent le pool d'éditeurs de logiciels à l'origine de la création du nouveau AI Safety Fund, une initiative dans laquelle, selon les annonces , plus de 10 millions de dollars devront être versés immédiatement.

À QUOI SERT LE FONDS D’INTELLIGENCE ARTIFICIELLE ?

L’objectif de l’AI Safety Fund, comme son nom l’indique, est de promouvoir la recherche dans le domaine de la sécurité de l’IA. Il sera étroitement lié au Frontier Model Forum, un organisme sectoriel soutenu par les mêmes éditeurs de logiciels (qui viennent de nommer Chris Meserole comme premier directeur exécutif de l'organisme) qui s'occupe de « garantir le développement sûr et responsable des modèles d'IA frontaliers ».

"Le Forum et ses partenaires philanthropiques – expliquent les éditeurs de logiciels impliqués – créent un nouveau Fonds pour la sécurité de l'IA, qui soutiendra les chercheurs indépendants du monde entier affiliés à des institutions universitaires, des instituts de recherche et des startups."

LES OBJECTIFS DU FONDS AI

L'objectif principal du Fonds sera de soutenir le développement de nouveaux modèles d'évaluation des capacités potentiellement dangereuses des systèmes frontaliers. "Nous pensons qu'un financement accru dans ce domaine contribuera à relever les normes de sûreté et de sécurité et à fournir un aperçu des mesures d'atténuation et de contrôle dont l'industrie, les gouvernements et la société civile ont besoin pour répondre aux défis posés par les systèmes d'intelligence artificielle", déclarent Anthropic, Google, Microsoft et OpenAI.

Le Fonds publiera un appel à propositions dans les prochains mois. Le Meridian Institute administrera le Fonds et ses travaux seront soutenus par un conseil consultatif composé d'experts dont les partenaires de l'initiative garantissent qu'ils sont externes et indépendants, d'experts d'entreprises d'IA et de personnes ayant une expérience dans le domaine des subventions.

QUI LE FINANCE

L’engagement financier initial pour l’AI Safety Fund provient d’Anthropic, Google, Microsoft et OpenAI et « de la générosité de nos partenaires philanthropiques, la Fondation Patrick J. McGovern, la Fondation David et Lucile Packard, Eric Schmidt et Jaan Tallinn ». . Ensemble, ces ressources représentent plus de 10 millions de dollars en financement de démarrage. Mais le pool d'éditeurs de logiciels déclare "attendre de nouvelles contributions de la part d'autres partenaires".

LE GROUPE DE TRAVAIL OPENAI SUR LES RISQUES IA

Tout cela se produit alors qu'OpenAI annonce la formation d'une équipe interne au sein de l'entreprise qui devra surveiller et étudier ce qui est défini comme des risques catastrophiques dus à l'utilisation de l'intelligence artificielle. L'équipe s'appelle Preparedness et est dirigée par Aleksander Madry, directeur du Center for Deployable Machine Learning du MIT à Boston et membre d'OpenAI depuis mai 2023.

LES MOUVEMENTS DE GOOGLE

Parallèlement, Google a décidé de lancer un programme grâce auquel la communauté d'experts pourra rechercher, identifier et partager les vulnérabilités (en bref, les bugs) des logiciels d'intelligence artificielle,

LE LOBBY DE L’IA DÉMARRE ?

A ce propos, certains observateurs parlent déjà de la naissance d'un lobby de l'intelligence artificielle, un club qui permet aux premiers éditeurs de logiciels arrivant sur le marché de choisir les meilleures places. L’existence d’initiatives d’études sur les risques de l’intelligence artificielle pourrait alors être liée à la volonté d’établir un dialogue plus étroit avec des législateurs sceptiques sur le sujet, pour tenter de vaincre leurs résistances.

À l’heure actuelle, ceux qui s’opposent aux modèles d’IA générative sont avant tout des détenteurs de droits d’auteur qui prétendent que leurs œuvres sont pillées par l’activité de grattage d’algorithmes intelligents. Ou, disent-ils, simplement des scripts.


Cet article est une traduction automatique de la langue italienne d’un article publié sur le magazine Début Magazine à l’URL https://www.startmag.it/innovazione/cosa-sappiamo-sul-fondo-sullintelligenza-artificiale-di-anthropic-google-microsoft-e-openai/ le Mon, 30 Oct 2023 07:58:17 +0000.