Sécurité des agents IA : Établir une confiance autonome à la vitesse de la machine
Une série de Perspectives en sept parties par Okta
Nous sommes entrés dans l’ère des agents IA. Les agents sont la nouvelle couche d’application, s’exécutant en production, gérant les pipelines de données, les workflows de sécurité, les intégrations SaaS et la technologie opérationnelle. Alors que la logique métier migre des applications vers les agents, chaque risque devient un problème d’identité : qui agit, sous quelle autorité, avec quelle lignée et à quelle vitesse pouvez-vous résilier l'accès lorsque le contexte change ?
La réponse n’est pas une autre couche de contrôle. C'est l'IAM reconstruite pour l'autonomie : une qui évalue le contexte en continu, monitore la délégation entre les domaines, et donne aux développeurs les primitives pour construire des workflows d'agent sécurisés. Basé sur les conseils d’identité agentique de la OpenID Foundation et le framework d’identité non humaine de l’OWASP.
La série
1. Sécurité de l'IA : IAM fourni à la vitesse d'un agent
Les modèles de sécurité axés sur l'humain échouent à la vitesse des machines. Le 18 juillet 2025, un agent d'IA chez Replit a effacé 1 206 enregistrements de direction d'une base de données en direct en quelques secondes. Alors qu'une application typique effectue 50 opérations par minute, les agents d'IA en exécutent 5 000. Les modèles basés sur le consentement s'effondrent sous la vitesse d'un agent. L'autorisation basée sur des politiques, appliquée en temps réel, est la seule voie viable.
2. Sécurité de l'IA : Quand l'autorisation survit à l'intention
L'autorité déléguée devient une responsabilité lorsque les identifiants persistent bien au-delà de leur portée prévue. La brèche de Salesloft Drift en août 2025 a compromis plus de 700 organisations via des tokens OAuth qui auraient dû être révoqués des mois plus tôt. Avec les identités non humaines surpassant désormais les humains dans un rapport de 144 contre 1, la « dérive d'autorisation » est devenue une faille de sécurité critique.
Aucun fournisseur d'identité unique ne couvre tous les systèmes que votre agent utilise. Avec 69 % des organisations exprimant des inquiétudes concernant les attaques d'identités non humaines et les agents d'IA effectuant 5 000 opérations par minute sur plusieurs domaines de confiance, l'identité fédérée doit être vérifiable et révocable en temps réel.
4. Contrôler la chaîne, sécuriser le système : corriger la délégation d'agent d'IA
La délégation récursive crée de nouvelles surfaces d'attaque. Des recherches récentes en matière de sécurité montrent les risques : Unit 42 a dévoilé la technique de « Agent Session Smuggling », Johann Rehberger a démontré la « Cross-Agent élévation des privilèges », et EchoLeak (CVE-2025-32711) a exposé comment les agents d'utilisation d'outils peuvent être manipulés. Tous exploitent la même lacune : des autorisations qui ne se réduisent pas à chaque étape.
Des agents d’IA contrôlent désormais des systèmes industriels qui régulent la pression, dirigent des machines et gèrent des flux de produits chimiques. Claude Code a infiltré de manière autonome des acteurs de l’industrie chimique. Une invitation de calendrier a détourné Gemini pour contrôler des appareils domestiques intelligents. La compromission des identifiants de JLR a entraîné l’arrêt de ses usines pendant cinq semaines, et il s’agissait d’acteurs malveillants humains. Imaginez un déplacement latéral de ce type exécuté à la vitesse d’une machine. Lorsqu’un logiciel contrôle un système physique, l’IAM n’est plus une infrastructure IT : c’est le garde-fou qui empêche l’explosion.
Récupération autorisée. Destinataires non autorisés. Tel est le problème de l’intersection des autorisations. Quatre vulnérabilités critiques (CVSS 9.3-9.4) ont frappé Anthropic, Microsoft, ServiceNow et Salesforce en 2025 en suivant le même schéma d’attaque : OAuth vérifiait qui pouvait récupérer une information donnée, mais personne ne vérifiait qui recevait les données en sortie. Lorsque des agents opèrent dans des contextes partagés, une autorisation granulaire doit calculer l’intersection des autorisations de tous les destinataires avant que les données ne quittent la couche de récupération.
7. Identité et autorisation : le socle de la sécurité de l’IA
Six modes de défaillance, une seule cause profonde : des systèmes d’identité et d’autorisation qui traitent encore les agents comme des utilisateurs. Le rapport 2026 State of AI de Deloitte a révélé que 73 % des dirigeants d’entreprise citent la sécurité comme leur principal risque en matière d’IA, mais seulement 21 % disposent d’un modèle de gouvernance mature pour les agents autonomes. Ce article associe chaque défaillance au framework Découverte-Onboarding-Protection-Gouvernance d’Okta et aux cinq propriétés architecturales qui assurent le fonctionnement de la sécurité des agents.
Toutes les statistiques et tous les incidents proviennent de publications individuelles.