OpenAI fait face à une violation de données alors qu’un pirate informatique vole les détails de la conception de l’IA

Un rapport récent révèle une faille de sécurité chez OpenAI, où un pirate informatique a accédé aux systèmes de messagerie internes l'année dernière, volant les détails de conception des technologies d'IA de l'entreprise. Le New York Times a rapporté cette fuite, survenue sur un forum en ligne où les employés d'OpenAI partageaient des informations sur leurs progrès actuels .

Lire aussi : Le « suicide » apparent d’un robot sud-coréen fait désormais l’objet d’une enquête

Il a été rapporté que la fuite s'était produite sur un forum en ligne où les employés d'OpenAI partageaient des mises à jour récentes. Selon deux sources anonymes proches du dossier, le pirate informatique n'a pas pu accéder aux systèmes centraux à travers lesquels OpenAI développe et stocke son intelligence artificielle, comme ChatGPT. Selon le New York Times, la société n'a pas signalé publiquement la violation car rien de critique n'avait été compromis et il n'y avait aucune menace pour la sécurité nationale.

OpenAI maintient des mesures de sécurité après la faille

Les dirigeants d'OpenAI ont partagé cette information avec les employés lors de l'assemblée générale d'avril de l'année dernière et avec le conseil d'administration. Malgré cette violation, l’entreprise n’a pas envisagé l’implication des forces de l’ordre fédérales, attribuant l’incident à un particulier qui n’était affilié à aucun État étranger.

Lire aussi : ChatGPT surpasse les humains en matière de blagues, selon une étude

Bien que l'incident de violation de données n'ait pas affecté les systèmes centraux de l'organisation considérés comme les plus sensibles, l'incident a mis en évidence la nécessité de mettre en place des mesures adéquates pour protéger les technologies avancées d'IA, selon le rapport.

La bataille juridique entre le New York Times et OpenAI prend une tournure inattendue

Dans le même ordre d’idées, la bataille juridique entre le New York Times et OpenAI a récemment fait l’objet d’une mise à jour majeure. OpenAI a déposé des documents exhortant le tribunal à ordonner au principal éditeur de démontrer l'originalité de ses articles en fournissant des sources détaillées pour chaque œuvre protégée par le droit d'auteur. Cette demande a encore compliqué l'affaire étant donné que la base de l'affaire est l'accusation d'utilisation non autorisée du contenu du NYT pour former des modèles d'intelligence artificielle.

« Le Times affirme que […] il « investit énormément de temps ». . . expertise et talent », notamment par « des enquêtes approfondies – qui prennent généralement des mois, voire des années, à être rapportées et produites – dans des domaines complexes et importants d'intérêt public. "

Avocats OpenAI

La demande exige que le New York Times soumette tous les documents liés au processus de paternité, à savoir les notes du journaliste, les mémos d'entretien et les documents sources. Les avocats d'OpenAI ont également souligné que, selon le New York Times, la société consacre des ressources importantes à la production d'un journalisme de classe mondiale. Les méthodes de création, le temps, le travail et l’investissement sont donc au cœur du problème. Par conséquent, ils soutiennent qu’OpenAI a le droit d’inspecter ces aspects via le processus de découverte.

Lire aussi : Shanghai accueille la Conférence mondiale sur l'intelligence artificielle 2024

Le New York Times a répondu à OpenAI avec un avis juridique publié le 3 juillet pour s'opposer à la demande de documents sources liés au contrat. L'équipe juridique du New York Times a déclaré que la demande d'OpenAI était nouvelle et fondait son argument sur une interprétation erronée de la loi sur le droit d'auteur. Ils ont fait valoir que le processus de création de matériel protégé par le droit d'auteur n'a aucun rapport avec le problème principal de l'affaire.

L’administration Biden devrait annoncer prochainement de nouvelles règles pour empêcher l’utilisation abusive de la technologie américaine d’IA par des pays préoccupants, notamment la Chine et la Russie. Ce sont les premières mesures proposées pour contenir les applications d’IA sophistiquées actuelles telles que ChatGPT.


Reportage cryptopolitain de Brenda Kanana