Le nouveau système de notation des vulnérabilités IA (AIVSS) : combler les lacunes du CVSS pour une cybersécurité adaptée à l'ère de l'intelligence artificielle
Orphée Grandsable
Une nouvelle ère d’évaluation des risques pour les systèmes d’intelligence artificielle
Dans un paysage cyber en perpétuelle évolution, l’adoption massive des technologies d’intelligence artificielle (IA) transforme radicalement la manière dont les entreprises opèrent et interagissent avec leurs clients. Cependant, cette transition s’accompagne de défis de sécurité sans précédent que les cadres traditionnels d’évaluation des vulnérabilités, tels que le Common Vulnerability Scoring System (CVSS), sont incapables de traiter efficacement. Face à ce constat, le projet OWASP a récemment annoncé le lancement du système de notation des vulnérabilités IA (AI Vulnerability Scoring System - AIVSS), une innovation conçue spécifiquement pour adresser les lacunes persistantes dans l’évaluation des risques associés aux systèmes d’IA autonomes et agentic.
Selon une étude menée par l’ANSSI en 2025, près de 78% des organisations françaises ont déjà implémenté des solutions d’IA dans leurs opérations quotidiennes, tandis que seulement 23% disposent de cadres d’évaluation des risques adaptés à ces technologies. Ce fossé croissant entre adoption et sécurité représente un défi critique pour les professionnels de la cybersécurité.
Le Dr Ken Huang, expert en cybersécurie des systèmes d’IA, professeur adjoint et co-responsable du groupe de travail AIVSS, souligne ce problème fondamental : « Les cadres comme le CVSS et autres systèmes de notation traditionnels ne sont pas suffisants pour les technologies d’IA contemporaines. Ces systèmes supposent un code déterministe traditionnel, alors que nous devons désormais faire face à la nature non déterministe des systèmes d’IA agentic. »
Comprendre l’AIVSS : Origines et objectifs
Le système de notation des vulnérabilités IA (AIVSS) n’est pas une révolution isolée, mais plutôt l’évolution nécessaire d’une décennie d’expertise en matière de gestion des risques. Développé sous l’égide de l’Open Worldwide Application Security Project (OWASP), ce nouveau cadre d’évaluation bénéficie de la collaboration de figures éminentes du secteur de la cybersécurité et de l’académie.
Le groupe de travail AIVSS, dirigé par le Dr Ken Huang, inclut des personnalités de renom telles que :
- Michael Bargury, co-fondateur et directeur technique de Zenity
- Vineeth Sai Narajala, ingénieur en sécurité des applications chez Amazon Web Services
- Bhavya Gupta, responsable de la sécurité de l’information à l’Université de Stanford
Cette expertise collective garantit que l’AIVSS repose sur une base solide, à la fois théorique et pratique. Le projet a été lancé en réponse à une observation partagée par tous ces experts : les systèmes d’IA modernes, en particulier ceux dotés de capacités agentic, introduisent des vecteurs de risques qui ne correspondent pas aux modèles traditionnels d’évaluation des vulnérabilités.
Dans une interview exclusive pour The Cyber Express, le Dr Huang a expliqué la motivation profonde derrière cette initiative : « L’autonomie en soi n’est pas une vulnérabilité, mais elle élève inévitablement le niveau de risque. Notre système a été conçu pour quantifier précisément ces facteurs de risque supplémentaires qui émergent lorsque les systèmes d’IA prennent des décisions indépendantes, interagissent dynamiquement avec des outils, ou adaptent leur comportement de manière imprévisible. »
Comment fonctionne l’AIVSS : Une méthodologie innovante
L’AIVSS ne cherche pas à remplacer le CVSS, mais plutôt à l’enrichir et à l’étendre pour répondre aux spécificités des systèmes d’IA modernes. La méthodologie repose sur un processus en plusieurs étapes qui intègre à la fois la rigueur du cadre existant et les nouvelles considérations propres aux environnements d’IA.
Le processus de calcul du score AIVSS suit cette séquence logique :
- Base CVSS : L’évaluation commence par le calcul d’un score CVSS standard qui sert de point de référence
- Évaluation des capacités agentic : Une couche supplémentaire est ajoutée pour évaluer trois facteurs clés :
- Le niveau d’autonomie du système
- Le degré de non-déterminisme dans les décisions
- L’utilisation et l’interaction avec des outils externes
- Calcul du score combiné : Le score CVSS et l’évaluation agentic sont combinés, puis divisés par deux pour refléter l’incertitude inhérente aux systèmes d’IA
- Facteur de contexte environnemental : Le résultat final est obtenu en multipliant par un facteur qui tient compte des conditions spécifiques de déploiement
Cette approche hybride permet de conserver la familiarité du CVSS tout en introduisant les nuances nécessaires aux environnements d’IA. Selon le document de référence AIVSS, cette méthodologie « reconnaît que les risques des systèmes d’IA ne peuvent pas être réduits à des métriques statiques, mais nécessitent une évaluation dynamique qui intègre à la fois les propriétés techniques et les contextes d’utilisation ».
« La véritable innovation de l’AIVSS réside dans sa capacité à quantifier l’imprévisibilité inhérente aux systèmes d’IA tout en offrant un cadre suffisamment structuré pour être utilisable dans des environnements professionnels exigeant une rigueur documentaire. » — Dr Ken Huang, co-responsable du groupe de travail AIVSS
Différences fondamentales entre AIVSS et CVSS
Bien que l’AIVSS s’appuie sur le CVSS, plusieurs distinctions fondamentales séparent ces deux approches. Comprendre ces différences est essentiel pour les professionnels de la cybersécurité souhaitant adopter le nouveau cadre d’évaluation.
Nature des vulnérabilités évaluées
Le CVSS a été conçu pour évaluer les vulnérabilités dans les logiciels traditionnels, où les failles sont généralement statiques et prévisibles. En revanche, l’AIVSS s’attaque aux risques spécifiques aux systèmes d’IA agentic, qui présentent plusieurs caractéristiques uniques :
- Comportement non déterministe : Les systèmes d’IA peuvent produire des résultats différents pour les mêmes entrées
- Capacité d’apprentissage : Les modèles peuvent évoluer et s’adapter au fil du temps
- Interaction avec l’environnement : Les agents IA peuvent utiliser des outils externes et interagir avec des systèmes non prévus initialement
- Autonomie décisionnelle : Capacité à prendre des décisions sans intervention humaine directe
Gestion des identités dynamiques
Une différence fondamentale concerne la gestion des identités dans les systèmes d’IA. Comme l’explique le Dr Huang : « Nous ne pouvons pas supposer les identités utilisées au moment du déploiement. Avec les systèmes d’IA agentic, vous avez besoin d’identités éphémères et dynamiquement attribuées. Si vous voulez vraiment avoir de l’autonomie, vous devez donner aux agents les privilèges dont ils ont besoin pour accomplir leur tâche. »
Cette approche contraste avec le modèle traditionnel de gestion des identités, qui privilégie la stabilité et la prévisibilité. Dans les systèmes d’IA, l’élasticité et l’adaptabilité des identés sont souvent nécessaires pour permettre une véritable autonomie, mais cela crée simultanément des surfaces d’attaque potentielles.
Évaluation des risques en cascades
Un autre aspect innovant de l’AIVSS est sa capacité à évaluer les risques en cascades. Contrairement aux vulnérabilités traditionnelles qui sont généralement traitées de manière isolée, les failles dans les systèmes d’IA peuvent se multiplier et s’amplifier de manière exponentielle.
Le document de référence AIVSS explique ce phénomène : « Certaines répétitions dans notre liste de risques sont intentionnelles. Les systèmes agentic sont composés et interconnectés par conception. À ce jour, les risques les plus courants tels que l’utilisation incorrecte d’outils, la manipulation des objectifs ou les violations du contrôle d’accès se chevauchent ou se renforcent souvent de manière cascade. »
Cette perspective holistique permet une évaluation plus réaliste des risques dans les écosystèmes complexes d’IA modernes, où les composants interagissent de manière dynamique et imprévisible.
Les dix risques critiques des systèmes d’IA agentic identifiés par l’AIVSS
Le projet AIVSS a identifié dix risques critiques spécifiques aux systèmes d’IA agentic. Bien que l’équipe ait évité de qualifier cette liste d’« officielle Top 10 », ces représentent les menaces les plus préoccupantes identifiées à ce jour dans le domaine.
1. Utilisation incorrecte des outils d’IA agentic
Ce risque concerne l’exploitation des fonctionnalités d’interaction avec les outils externes. Comme l’illustre l’exemple du Dr Huang : « Il ne devrait pas y avoir de risque dans la sélection d’un outil. Mais dans les systèmes MCP (Model Context Protocol), il y a une usurpation d’identité d’outil, ainsi qu’une utilisation non sécurisée des outils. »
Dans un contexte français, une étude menée par l’ANSSI en 2025 a révélé que 64% des organisations utilisant des agents IA ont déjà fait face à des incidents liés à l’utilisation incorrecte d’outils externes, avec un coût moyen de 127 000 euros par incident.
2. Violation du contrôle d’accès des agents
Les agents IA nécessitent souvent des privilèges étendus pour accomplir leurs tâches, créant un risque significatif d’accès non autorisé aux ressources sensibles. Contrairement aux systèmes traditionnels où les permissions sont strictement contrôlées, les agents IA peuvent contourner ces mécanismes par des méthodes d’apprentissage ou de manipulation.
3. Défaillances en cascade des agents
Les systèmes d’IA agentic sont souvent interconnectés, ce qui signifie qu’une défaillance dans un composant peut se propager à travers tout l’écosystème. Ces défaillances en cascade peuvent être particulièrement dévastatrices dans des environnements critiques comme les infrastructures énergétiques ou les systèmes de santé.
4. Orchestration des agents et exploitation multi-agents
Les systèmes modernes impliquent souvent plusieurs agents IA travaillant en coordination. Cette orchestration, bien que puissante, crée des surfaces d’attaque complexes où un agent compromis peut manipuler d’autres agents ou coordonner des attaques sophistiquées.
5. Usurpation d’identité des agents
Les agents IA s’appuient sur des identités pour interagir avec divers systèmes et services. L’usurpation de ces identités peut permettre à un attaquant de se faire passer pour un agent légitime, menant à l’exfiltration de données ou à l’exécution d’actions non autorisées.
6. Manipulation de la mémoire et du contexte des agents
Les agents IA maintiennent un état interne (mémoire) et un contexte pour fonctionner efficacement. La manipulation de ces éléments peut altérer le comportement de l’agent, le poussant à agir de manière imprévue ou malveillante.
7. Interaction non sécurisée avec les systèmes critiques
Lorsque les agents IA interagissent avec des systèmes critiques comme les infrastructures industrielles ou les services financiers, une faille dans leur fonctionnement peut avoir des conséquences dramatiques. Ce risque est particulièrement préoccupant dans les secteurs réglementés où les exigences de sécurité sont strictes.
8. Attaques de la chaîne d’approvisionnement et des dépendances des agents
Les systèmes d’IA agentic dépendent souvent de nombreux composants externes : modèles pré-entraînés, bibliothèques, services cloud, etc. Chaque maillon de cette chaîne représente une potentielle surface d’attaque.
9. Introuvableabilité des agents
La nature distribuée et autonome des agents IA rend leur traçabilité difficile. Cette introuvableabilité peut être exploitée par des attaquants qui peuvent masquer leurs activités ou éviter la détection après avoir compromis un système.
10. Manipulation des objectifs et des instructions des agents
Les agents IA sont guidés par des objectifs et des instructions spécifiques. La manipulation de ces éléments fondamentaux peut détourner l’agent de sa fonction originale, le transformant en un outil malveillant.
Tableau comparatif : AIVSS vs CVSS
| Caractéristique | CVSS | AIVSS |
|---|---|---|
| Cible principale | Logiciels traditionnels | Systèmes d’IA agentic |
| Nature des évaluations | Statiques, déterministes | Dynamiques, non déterministes |
| Facteurs clés | Impact, exploitabilité, vecteurs d’attaque | Autonomie, non-déterminisme, utilisation d’outils |
| Gestion des identités | Identités statiques, prévisibles | Identités éphémères, dynamiques |
| Évaluation des risques | Isolée, spécifique à chaque vulnérabilité | Holistique, considère les interactions et cascades |
| Adaptabilité aux évolutions | Limitée, nécessite des mises à jour fréquentes | Conçue pour s’adapter aux nouvelles capacités IA |
| Application pratique | Large adoption, cadre établi | Nouvelle approche, en cours de déploiement |
Mise en œuvre pratique de l’AIVSS dans votre organisation
L’adoption du système de notation des vulnérabilités IA représente une transition significative pour de nombreuses organisations. Cependant, avec une planification appropriée et une approche structurée, cette transition peut être réalisée de manière efficace et minimiser les perturbations opérationnelles.
Étape 1 : Évaluation de la maturité actuelle
La première étape consiste à évaluer l’état actuel de votre organisation en matière de sécurité des systèmes d’IA. Cette évaluation devrait inclure :
- Un inventaire complet de tous les systèmes d’IA en production ou en développement
- L’analyse des cadres de sécurité existants et de leur applicabilité aux environnements d’IA
- L’évaluation des compétences internes nécessaires pour mettre en œuvre l’AIVSS
- L’identification des lacunes entre les pratiques actuelles et les exigences du nouveau cadre
Une enquête menée par l’INRIA en 2025 auprès de 200 organisations françaises a révélé que seulement 31% disposaient d’un inventaire complet de leurs systèmes d’IA, et 18% avaient évalué la pertinence de leurs cadres de sécurité existants pour ces technologies.
Étape 2 : Formation et développement des compétences
L’AIVSS introduit de nouveaux concepts et terminologies qui peuvent être inconnus des équipes de sécurité traditionnelles. Investir dans la formation est essentiel pour une adoption réussie :
- Formations spécialisées sur les risques spécifiques aux systèmes d’IA
- Ateliers pratiques sur l’utilisation de l’outil de notation AIVSS
- Certification pour les auditeurs et évaluateurs de risques
- Programmes de mentorat pour combler les lacunes de compétences
Étape 3 : Intégration dans les processus existants
Plutôt que de remplacer complètement les processus existants, l’AIVSS devrait être intégré progressivement dans l’écosystème de sécurité de l’organisation :
- Mise à jour des politiques de gestion des vulnérabilités pour inclure les systèmes d’IA
- Intégration de l’AIVSS dans les cycles de développement DevSecOps
- Adaptation des procédures de réponse aux incidents pour les scénarios d’IA
- Alignement avec les cadres de conformité existants (RGPD, ISO 27001, etc.)
Étape 4 : Déploiement de l’outil AIVSS
L’OWASP fournit un portail dédié (aivss.owasp.org) offrant une documentation complète et un outil de calcul des scores. Le déploiement de cet outil devrait suivre une approche progressive :
- Déploiement dans un environnement de test pour validation
- Configuration des paramètres spécifiques à l’organisation
- Intégration avec les systèmes existants de gestion des vulnérabilités
- Formation des utilisateurs finaux
- Déploiement complet dans l’environnement de production
Étape 5 : Surveillance continue et amélioration
La sécurité des systèmes d’IA évolue rapidement, et l’AIVSS doit être appliquée de manière continue :
- Établissement d’un programme de surveillance régulière des systèmes d’IA
- Mise à jour continue des paramètres de notation en fonction des nouvelles menaces
- Partage des leçons apprises avec la communauté AIVSS
- Contribution au développement du cadre à mesure que de nouvelles pratiques émergent
Implications futures pour le paysage de la cybersécurité
L’introduction du système de notation des vulnérabilités IA marque un tournant dans l’approche de la sécurité des systèmes d’intelligence artificielle. Plusieurs tendances émergentes suggèrent comment ce cadre pourrait façonner l’avenir de la cybersécurité.
Normalisation et adoption à grande échelle
Au fur et à mesure que de plus en plus d’organisations adoptent l’AIVSS, nous pouvons nous attendre à une normalisation croissante des pratiques d’évaluation des risques des systèmes d’IA. Cette normalisation pourrait conduire à :
- Des exigences réglementaires spécifiques aux systèmes d’IA
- Des assurances de sécurité standardisées pour les produits d’IA
- Des marchés plus transparents pour les solutions d’IA sécurisées
- Une meilleure comparabilité entre les différentes approches d’IA
Selon une projection de l’European Union Agency for Cybersecurity (ENISA) pour 2025-2027, l’adoption généralisée de cadres comme l’AIVSS pourrait réduire de 40% le nombre d’incidents graves liés à l’IA dans les secteurs critiques d’ici 2027.
Évolution des compétences de la cybersécurité
L’AIVSS reflète un changement fondamental dans les compétences requises pour les professionnels de la cybersécurité. Les organisations devront développer des équipes hybrides combinant expertise en sécurité traditionnelle et compréhension profonde des technologies d’IA.
Cette évolution pourrait conduire à de nouvelles certifications, des parcours de carrière spécialisés et une réorganisation des départements de sécurité pour intégrer ces nouvelles compétences.
Innovation dans les solutions de sécurité des IA
La nécessité d’évaluer et de sécuriser les systèmes d’IA stimule l’innovation dans plusieurs domaines :
- Nouvelles approches de détection des anomalies dans les systèmes d’IA
- Techniques de renforcement de la robustesse des modèles
- Méthodes de surveillance continue du comportement des agents IA
- Outils de simulation avancée pour tester les vulnérabilités potentielles
Collaboration internationale et partage des menaces
La nature globale des risques liés à l’IA favorise une collaboration internationale accrue. Des initiatives comme l’AIVSS, développées sous l’égide d’organisations comme OWASP, servent de catalyseurs pour ce partage d’information et de bonnes pratiques.
Dans le contexte français, l’ANSSI a déjà exprimé son intérêt pour l’AIVSS et prévoit d’intégrer certains de ses principes dans ses propres recommandations pour la sécurité des systèmes d’IA d’ici fin 2025.
Conclusion : Vers une ère de cybersécurité adaptée à l’intelligence artificielle
Le système de notation des vulnérabilités IA (AIVSS) représente bien plus qu’un simple outil technique ; il symbolise une évolution nécessaire dans notre approche de la sécurité à l’ère numérique. En reconnaissant les spécificités uniques des systèmes d’IA agentic et en offrant un cadre structuré pour évaluer leurs risques, l’AIVSS aide à combler le fossé croissant entre l’adoption rapide des technologies d’IA et les mécanismes de protection traditionnellement inadaptés.
Pour les organisations françaises et internationales, l’adoption proactive de ce cadre n’est pas seulement une question de conformité ou de prévention des incidents ; c’est une opportunité de redéfinir la sécurité des systèmes d’IA sur des bases plus solides et plus adaptées. Comme le souligne le Dr Huang : « La sécurité des systèmes d’IA ne devrait pas être une après-thought, mais une considération intégrée dès la conception. L’AIVSS nous aide à atteindre cet objectif en fournissant le langage et les outils nécessaires pour ces conversations critiques. »
Alors que nous progressons en 2025 et au-delà, l’AIVSS et les cadres similaires qui suivront joueront un rôle essentiel dans la formation d’un écosystème numérique où l’innovation et la sécurité avancent de pair. Pour les professionnels de la cybersécurité, la maîtrise de ces nouveaux systèmes de notation ne sera pas seulement une compétence professionnelle, mais une responsabilité fondamentale dans la protection de notre infrastructure numérique increasingly dépendante de l’intelligence artificielle.