Retour d’exercice de crise cyber sur l’IA

ANSSI

Ce document synthétise le retour d’expérience d’un exercice de crise cyber dédié à l’IA, organisé lors du Sommet pour l’Action sur l’IA (10-11 février 2025). L’objectif était de renforcer la collaboration entre experts en IA et en cybersécurité, souvent cloisonnés, en simulant une gestion de crise impliquant des systèmes d’IA compromis. L’exercice a réuni 200 professionnels (20 nationalités, 70 organisations), avec une forte médiatisation (57 articles de presse).

Contexte :

  • L’IA introduit des risques cyber spécifiques (chaîne d’approvisionnement complexe, opacité des modèles, vulnérabilités émergentes).
  • L’exercice s’appuyait sur 2 scénarios (fuite de données via un assistant IA open source ; compromission d’un système critique par empoisonnement de données).
  • Méthode : Ateliers collaboratifs avec des questions directrices pour explorer les enjeux de gouvernance, protection, défense et résilience des systèmes d’IA.

Chiffres clés :

  • 70 entreprises/start-ups impliquées, dont des géants technologiques.
  • 50 animateurs/observateurs pour guider les discussions.
  • 11 questions transversales pour structurer les échanges (ex : partage des vulnérabilités, sélection des modèles, réponse à incident).

Analyse : Les participants ont identifié des lacunes critiques :

  1. Maîtrise insuffisante de la chaîne d’approvisionnement IA (dépendances externes, modèles open source).
  2. Manque de transparence des modèles, rendant difficile la détection d’anomalies.
  3. Déficience dans l’intégration de l’IA aux plans de résilience cyber existants.
  4. Partage limité des responsabilités entre fournisseurs et clients (ex : correctifs, audits).
  5. Besoin de standards pour évaluer la sécurité des modèles (tests d’intrusion adaptés, certification).

Recommandations phares :

  • Gouvernance : Intégrer l’IA dans les politiques cyber (ex : comités dédiés, analyse de risques incluant les biais algorithmiques).
  • Protection : Sécuriser les poids des modèles, isoler les environnements d’entraînement, et tester la résistance aux prompts malveillants.
  • Défense : Créer une veille spécifique aux vulnérabilités IA (collaboration avec les data scientists) et déployer des mécanismes de détection d’anomalies (ex : dérive des taux d’erreur).
  • Résilience : Prévoir des procédures manuelles de secours et inclure l’IA dans les PCA/PRA (plans de continuité d’activité).


Retour_Exercice_Crise_Cyber_IA_Fev2025