Les employés disent qu’OpenAI et Google DeepMind cachent les risques liés à l’IA 

Plusieurs employés actuels et anciens d'OpenAI et de Google DeepMind ont accusé leurs entreprises de cacher des risques liés à l'IA qui pourraient potentiellement déclencher l'extinction de l'humanité. Dans une lettre ouverte, les travailleurs ont déclaré que les entreprises d’IA accordent la priorité au profit tout en évitant « une surveillance [gouvernementale] efficace ».

Lisez aussi : OpenAI prépare le successeur de GPT-4 au milieu de problèmes de sécurité

La lettre ouverte a été signée par 11 anciens employés d'OpenAI, dont deux de Google DeepMind, et soutenue par le "parrain de l'intelligence artificielle" Geoffrey Hinton, ancien de Google. Il a déclaré que les motivations de profit et les lacunes réglementaires permettent aux entreprises de cacher les menaces posées par l’intelligence artificielle avancée.

L'intelligence artificielle pourrait conduire à l'extinction de l'humanité

Selon la lettre, les sociétés d'IA telles qu'OpenAI et Google DeepMind, créateur de Gemini , n'ont pas partagé publiquement d'informations sur les protections inadéquates et les niveaux de risque de leurs systèmes, car elles n'y sont pas obligées.

Sans surveillance réglementaire, les programmes d’IA pourraient causer de graves dommages aux humains. Les salariés prévenus :

« Ces risques vont de l’aggravation des inégalités existantes… à la perte du contrôle des systèmes d’IA autonomes, entraînant une potentielle extinction de l’humanité. »

Comme l’ont souligné les signataires de la lettre, les sociétés d’IA elles-mêmes ont reconnu ces risques. En mai 2023, les PDG d'OpenAI, Anthropic et Google DeepMind ont signé une lettre ouverte du Center for AI Safety. La lettre disait simplement : « Atténuer le risque d’extinction dû à l’intelligence artificielle devrait être une priorité mondiale aux côtés d’autres risques à l’échelle sociétale, tels que les pandémies et la guerre nucléaire. »

Les entreprises d’IA sont de plus en plus surveillées parce qu’elles font passer les nouveaux produits et les profits avant la sécurité. OpenAI, créateur de ChatGPT, a noté les préoccupations soulevées dans la lettre et a déclaré qu'il travaillait au développement d'une IA sûre.

"Nous sommes fiers de notre expérience en matière de fourniture des systèmes d'IA les plus performants et les plus sûrs, et nous croyons en notre approche scientifique pour gérer les risques", a déclaré la porte-parole d'OpenAI, Lindsey Held, au New York Times.

« Nous convenons qu'un débat rigoureux est essentiel étant donné l'importance de cette technologie, et nous continuerons à collaborer avec les gouvernements, la société civile et d'autres communautés à travers le monde. »

AU

Les lanceurs d’alerte craignent des représailles

D'anciens employés d'OpenAI et de Google ont déclaré qu'ils aimeraient remplir le rôle de surveillance alors que les régulateurs élaborent des lois qui obligeraient les développeurs d'IA à divulguer publiquement plus d'informations sur leurs programmes.

Cependant, les accords de confidentialité et le risque de représailles de la part des employeurs découragent les travailleurs d'exprimer publiquement leurs préoccupations. Selon la lettre :

« Certains d’entre nous craignent raisonnablement diverses formes de représailles, compte tenu de l’histoire de cas similaires dans l’ensemble du secteur. Nous ne sommes pas les premiers à rencontrer ou à parler de ces problèmes. »

Aux États-Unis, les lanceurs d’alerte sont protégés par la loi, mais ceux qui dénoncent les dangers de l’intelligence artificielle ne sont pas couverts car la technologie n’est pas encore réglementée.

Lire aussi : ChatGPT continue de répandre des mensonges, selon le régulateur européen des données

La lettre appelle les entreprises d’IA à faciliter les commentaires anonymes et vérifiables, à soutenir une culture de critique ouverte et à ne pas exercer de représailles contre les lanceurs d’alerte.

Le chercheur en intelligence artificielle Lance B. Eliot a déclaré que les entreprises adoptent une approche « de la carotte et du bâton » face aux critiques. Les employés qui ne dénoncent pas les risques sont récompensés par des promotions et des augmentations de salaire.

D’un autre côté, les lanceurs d’alerte et les critiques perdent leurs options d’achat d’actions et peuvent être forcés de quitter l’entreprise et silencieusement mis sur liste noire par la communauté des dirigeants de l’IA.


Reportage cryptopolitain de Jeffrey Gogo