banner

Nouvelles

Aug 11, 2023

Déjouer les attaques génératives d’IA

Nir Givol de Morphisec explique les défis liés à la défense des systèmes contre des techniques sophistiquées basées sur l'IA et donne quelques conseils sur la façon de vaincre la prochaine génération d'adversaires.

Cybertechnologie | 1/08/2023

Photo : Images Imago via Reuters Connect

À mesure que la sophistication des outils d’intelligence artificielle (IA) tels que ChatGPT, Copilot, Bard et autres continue de croître, ils présentent un plus grand risque pour les défenseurs de la sécurité et une plus grande récompense pour les attaquants qui adoptent des techniques d’attaque basées sur l’IA.

En tant que professionnel de la sécurité, vous devez défendre un écosystème diversifié de plusieurs systèmes d'exploitation (OS) construits au fil du temps pour pérenniser l'héritage tout en adoptant de nouvelles interfaces B2B et B2C modernes, hyper-évolutives, hyper-rapides et riches en données. Vous recherchez (et comptez sur) les produits de sécurité les plus récents et les plus performants pour vous aider à repousser les attaquants.

Cependant, face à des techniques sophistiquées basées sur l'IA, il manque aux produits et pratiques de sécurité existants un élément de défense essentiel : une technologie capable de vaincre la prochaine génération d'adversaires propulsés par des machines et dotés de l'intelligence artificielle, spécialisés dans l'apprentissage automatique pour créer de nouveaux systèmes adaptatifs. exploits à une vitesse et à une échelle vertigineuses.

Une tendance claire commence à émerger avec les principales préoccupations spécifiques aux systèmes d’IA générative et à leur capacité à violer la technologie de détection et de prévention.

Les professionnels de l'InfoSec sont préoccupés. L'IA générative peut être exploitée pour :

Le point de vue du défenseur

L'intelligence artificielle (IA) avec ses sous-ensembles d'apprentissage automatique (ML) et d'apprentissage profond (DL) fait partie intégrante des plates-formes modernes de protection des points finaux (EPP) et des produits de détection et de réponse des points finaux (EDR).

Ces technologies fonctionnent en apprenant à partir de grandes quantités de données sur les comportements ou modèles de code malveillants et inoffensifs connus. Cet apprentissage leur permet de créer des modèles capables de prédire et d’identifier des menaces inédites.

Plus précisément, l’IA peut être utilisée pour :

L'utilisation de l'IA devient désormais une norme de facto pour aider à réduire les faux positifs en identifiant le contexte d'un incident et en comprenant le comportement du point final pour blanchir les alertes et corriger rétroactivement les informations mal classées à l'aide d'une multitude de données télémétriques précédemment envoyées.

Le point de vue de l'attaquant

À mesure que l’IA évolue et devient plus sophistiquée, les attaquants trouveront de nouvelles façons d’utiliser ces technologies à leur avantage et d’accélérer le développement de menaces capables de contourner les solutions de protection des points de terminaison basées sur l’IA.

Les méthodes que les attaquants peuvent utiliser pour exploiter l’IA pour compromettre leurs cibles incluent :

Nous nous attendons à ce que les attaquants utilisent activement l’IA pour automatiser l’analyse des vulnérabilités, générer des messages de phishing convaincants, découvrir les faiblesses des systèmes de sécurité basés sur l’IA, générer de nouveaux exploits et pirater des mots de passe. À mesure que l’IA et l’apprentissage automatique évoluent, les organisations doivent rester vigilantes et se tenir au courant des dernières évolutions en matière d’attaques basées sur l’IA pour se protéger contre ces menaces.

Les organisations utilisant des systèmes basés sur l'IA doivent remettre en question la robustesse et la sécurité de leurs ensembles de données sous-jacents, de leurs ensembles de formation et des machines qui mettent en œuvre ce processus d'apprentissage, et protéger les systèmes contre les codes malveillants non autorisés et potentiellement utilisés comme armes. Les faiblesses découvertes ou injectées dans les modèles de solutions de sécurité basées sur l’IA peuvent conduire à un contournement global de leur protection.

Morphisec a déjà observé des attaques sophistiquées menées par des acteurs malveillants hautement qualifiés et disposant de ressources suffisantes, tels que des acteurs étatiques, des groupes du crime organisé ou des groupes de piratage informatique avancés. Les progrès des technologies basées sur l’IA peuvent réduire les barrières à l’entrée pour la création de menaces sophistiquées, en automatisant la création de logiciels malveillants polymorphes et évasifs.

Ce n’est pas seulement une préoccupation pour l’avenir.

Il n’est pas nécessaire de tirer parti de l’IA pour contourner les solutions actuelles de sécurité des points finaux. Les tactiques et techniques permettant d'échapper à la détection par les EDR et les EPP sont bien documentées, en particulier dans les manipulations de mémoire et les logiciels malveillants sans fichier. Selon Picus Security, les techniques évasives et en mémoire représentent plus de 30 % des principales techniques utilisées dans les logiciels malveillants observés dans la nature.

PARTAGER