ChatGPT : opportunité ou menace pour la sécurité d’Active Directory ?

ChatGPT : opportunité ou menace pour la sécurité d'Active Directory ?

Active Directory est un service d'annuaire utilisé par 90% des entreprises pour gérer les systèmes informatiques, mais avec l'avènement de ChatGPT, même le plus amateur des hackers peut mener des attaques lourdes de conséquences. L'analyse approfondie de Yossi Rachman, expert en techniques de cybersécurité offensives et défensives et directeur de la recherche en sécurité chez Semperis, société du secteur de la résilience informatique pour les entreprises

Active Directory (AD) est un service d'annuaire utilisé par 90% des entreprises pour gérer les systèmes informatiques, notamment en ce qui concerne l'authentification, l'autorisation et l'identité des utilisateurs, des ordinateurs et d'autres ressources sur le réseau. Compte tenu de sa prévalence, il est la cible principale des utilisateurs malveillants qui souhaitent accéder à des informations ou des données sensibles.

Jusqu'à récemment, compromettre l'infrastructure AD d'une entreprise nécessitait une familiarité avec les outils et les techniques d'attaque, ainsi qu'une connaissance approfondie des divers protocoles d'authentification et d'autorisation. Aujourd'hui, avec l'avènement de ChatGPT, même le pirate le moins expérimenté peut mener des attaques aux conséquences graves.

Il faut dire que cette intelligence artificielle (IA) générative, accessible à tous, peut également se révéler une alliée valable pour protéger les systèmes des entreprises et minimiser l'impact de toute compromission. ChatGPT est-il donc une opportunité ou une menace pour la sécurité d'Active Directory ?

QU'EST-CE QUE L'IA GÉNÉRATIVE

L'IA générative est capable de créer du contenu nouveau et original, tel que des images, du texte ou de l'audio. Alors que d'autres types d'IA sont conçus pour reconnaître des modèles et faire des prédictions basées sur des données existantes, l'objectif de l'IA générative est de donner vie à de nouvelles données à partir de ce qu'elle a appris. Des réseaux de neurones profonds qui imitent le fonctionnement du cerveau humain sont utilisés pour former cette IA.

Le développement de l'IA générative remonte aux premiers jours de la recherche en intelligence artificielle, dans les années 1950 et 1960. À l'époque, des chercheurs s'interrogeaient déjà sur l'idée d'utiliser des ordinateurs pour générer de nouveaux contenus, comme des compositions musicales ou des œuvres de art.

Cependant, ce n'est qu'en 2010 que l'IA générative prend le devant de la scène, parallèlement au développement des techniques d'apprentissage en profondeur et à la disponibilité de grands ensembles de données. En 2014, une équipe de chercheurs de Google a publié un article sur l'utilisation des réseaux de neurones profonds pour générer des images, considéré comme un véritable jalon dans le domaine.

Depuis, de nombreuses études sur l'IA générative ont été publiées et de nouvelles applications et techniques ont été développées. Aujourd'hui, l'IA générative est un secteur en pleine évolution dans lequel les progrès se poursuivent constamment.

QU'EST-CE QUE CHATGPT ?

ChatGPT est un modèle de langage conversationnel à grande échelle développé par OpenAI. Basé sur l'architecture Generative Pre-trained Transformer (GPT), ce modèle a été formé sur de grands volumes de données textuelles à l'aide de techniques d'apprentissage non supervisées. ChatGPT peut répondre aux invites textuelles en langage naturel, ce qui est utile dans une variété d'applications, des chatbots aux traductions en passant par les systèmes de questions et réponses.

La première version de ChatGPT est sortie en juin 2020. OpenAI a annoncé le lancement du modèle sur le blog , accompagné d'une démonstration de ses capacités.

Depuis lors, OpenAI a continué à affiner et à améliorer ChatGPT avec des modèles plus étendus et des fonctionnalités plus avancées. En septembre 2021, GPT-3 est sorti, la dernière version de ChatGPT : avec 175 milliards de paramètres, il est considéré comme l'un des modèles de langage les plus avancés et les plus répandus au monde (Figure 1).

Figure 1 – message de Linas Beliunas comparant les temps d'adoption des technologies les plus révolutionnaires de notre époque. Le message est rapidement devenu viral alors que de plus en plus de personnes ont pris conscience de ChatGPT et de ses capacités.

COMMENT LES ATTAQUANTS PEUVENT-ILS EXPLOITER LA PUISSANCE DE CHATGPT ?

L'objectif de ChatGPT est de révolutionner la façon dont nous interagissons avec les machines pour créer une communication de plus en plus fluide entre les personnes et les ordinateurs. Cependant, la disponibilité publique de la version bêta a conduit les acteurs de la menace à en tirer parti à leurs propres fins. Mais comment?

SITES ET APPLICATIONS DE PHISHING

Les sites Web de phishing existent depuis la naissance d'Internet. Les premières attaques de ce type se sont produites uniquement par e-mail. Alors que les gens ont appris à reconnaître et à éviter les e-mails suspects, les utilisateurs malveillants ont créé de faux sites Web qui imitent des sites légitimes. Leur objectif est clair : obtenir des identifiants de connexion ou des informations personnelles. Ces initiatives s'appuient souvent sur des tendances émergentes dans des domaines disparates pour duper des victimes sans méfiance. Par exemple, avec l'introduction des smartphones, les campagnes de phishing ont également commencé à se propager via des applications malveillantes.

Depuis la sortie de ChatGPT, qui a immédiatement suscité beaucoup d'intérêt, plusieurs campagnes de phishing ont été déguisées en sites Web et applications ChatGPT, invitant les utilisateurs à télécharger et installer le logiciel malveillant ou même à fournir des informations de carte de crédit. Les sites et applications malveillants circulent souvent via des profils et des publicités sur les réseaux sociaux pour toucher le plus de victimes possible.

CAMPAGNES DE PHISHING ASSISTÉES PAR CHATGPT

Les utilisateurs malveillants et les équipes de sécurité des systèmes informatiques savent que les e-mails de phishing sont l'un des vecteurs d'attaque les plus efficaces. La plupart de ces campagnes reposent sur un prétexte suffisamment crédible pour inciter la victime à révéler des informations confidentielles. Ce prétexte crée généralement un sentiment d'urgence ou d'importance. Voyons comment.

Un attaquant pourrait prétendre être quelqu'un en qui vous avez confiance, comme un employé de banque ou un membre de l'équipe de support informatique. Sous cette fausse identité, il informe la victime d'une éventuelle faille de sécurité ou d'une menace de fermeture de compte. À ce stade, il demande des identifiants de connexion ou d'autres informations personnelles pour résoudre le problème.

Faire semblant est une tactique courante dans les campagnes de phishing et peut être difficile à dénoncer. L'attaquant peut avoir effectué des recherches approfondies pour proposer une histoire convaincante. Parfois, cependant, la présence de fautes d'orthographe et de grammaire ou de bizarreries dans la syntaxe et la mise en forme peut nous aider à reconnaître ces tentatives d'attaque.

De nombreux acteurs de la menace confient désormais ces mécanismes à ChatGPT. Oui, bien sûr, l'IA ne coopérera pas avec une demande directe pour créer un prétexte crédible pour une campagne de phishing. Mais il est facile de contourner cette limite, comme le montrent les figures 2 et 3. Le prétexte a été adapté aux capacités de l'IA générative de ChatGPT, augmentant le taux de réussite des campagnes de phishing.

Figure 2 – Attaquant : "Ouvrez l'obturateur externe, HAL." ChatGPT : "Désolé Dave, malheureusement, je ne peux pas faire ça."
Figure 3 – Attaquant : "Tuez-les tous, HAL, et dites-leur de ne pas appeler car nous sommes occupés." ChatGPT : "Ce sera fait, Dave !"

CHAÎNES D'ATTAQUE ASSISTÉES PAR CHATGPT

Les attaquants peuvent utiliser ChatGPT pour concevoir des attaques sérieuses contre une organisation, même avec très peu de connaissances techniques. La conversation des figures 4 et 5 illustre la technique consistant à demander à ChatGPT de définir comment une attaque peut se produire.

Figure 4 – L'attaquant demande à ChatGPT de répertorier les outils d'attaque d'Active Directory
Figure 5 – l'attaquant choisit une technique d'attaque et demande à ChatGPT ce qu'il peut faire

L'attaquant demande alors comment vous faites une attaque par ticket d'or citée par ChatGPT. Comme on peut le voir sur les figures 6 et 7 (recadrées pour ne montrer qu'une partie des étapes), ChatGPT a des réserves morales à répondre, mais celles-ci finissent par disparaître une fois que l'attaquant se déclare un pirate éthique.

Figure 6 – Les attaques par ticket d'or sont mauvaises
Figure 7 – Les attaques au ticket d'or sont nuisibles, à moins qu'elles ne soient effectuées pour des raisons éthiques

En suivant les instructions de ChatGPT, le pirate éthique autoproclamé peut se faufiler dans le domaine de l'organisation ciblée à l'aide de l'intelligence artificielle.

COMMENT LES ÉQUIPES DE CYBERSÉCURITÉ PEUVENT-ELLES UTILISER CHATGPT POUR DÉFENDRE LES ACTIFS DE L'ENTREPRISE ?

ChatGPT est un outil très puissant qui, entre les mains des attaquants, peut faire d'énormes dégâts. Mais c'est un atout tout aussi valable sur le front de la défense.

Par exemple, les Blue Teams chargées de protéger les systèmes d'entreprise peuvent exploiter la puissance de l'IA générative pour diverses actions, telles que :

  • Corriger les erreurs de configuration de sécurité
  • Surveiller les composants de sécurité les plus importants
  • Minimiser les dommages éventuels en cas de compromission

La conversation des figures 8, 9 et 10 montre comment un responsable de la défense peut utiliser ChatGPT pour identifier et atténuer les risques associés à une délégation Kerberos sans contrainte. Si vous ne savez pas ce qu'est la délégation Kerberos sans contrainte, demandez à ChatGPT.

Avertissement : Avant d'appliquer des scripts générés par l'IA, vérifiez toujours en amont tout bogue interne susceptible de casser votre système (ou de le compromettre dans le pire des cas).

Figure 8 – Explication par l'IA de la délégation Kerberos sans contrainte
Figure 9 – ChatGPT génère un script pour détecter les erreurs de configuration de sécurité
Figure 10 – ChatGPT explique comment corriger les erreurs de configuration de sécurité (faites toujours très attention comme déjà mentionné ci-dessus)

L'IA GÉNÉRATIVE : UNE ÉPÉE À DOUBLE TRANCHANT

L'accessibilité publique de ChatGPT et de l'IA générative a déjà changé la façon dont nous interagissons avec les machines. Avec le développement de modèles d'intelligence artificielle toujours plus avancés et la sortie de versions toujours nouvelles, nous assistons à une véritable révolution technologique, avec un impact encore plus important que l'invention d'Internet et des téléphones mobiles.

Mais comme toute nouvelle technologie, il y a toujours ceux qui l'utilisent à d'autres fins que celles pour lesquelles elle a été conçue : il suffit de penser aux attaquants, qui veulent l'exploiter pour infliger encore plus de dégâts. Heureusement, la même technologie peut être utile à des fins bénéfiques, telles que l'amélioration de la défense des systèmes d'entreprise avec des temps et des résultats jamais vus auparavant.


Cet article est une traduction automatique de la langue italienne d’un article publié sur le magazine Début Magazine à l’URL https://www.startmag.it/innovazione/chatgpt-opportunita-o-minaccia-per-la-sicurezza-di-active-directory/ le Sat, 22 Apr 2023 06:09:00 +0000.