Ceci est le premier blog d'une série en sept parties sur la sécurité de l'identité en tant que sécurité de l'IA.
TL;DR : Les agents d'IA peuvent multiplier par 100 la surface d'attaque d'une organisation, non pas en faisant plus, mais en le faisant plus rapidement. En juillet 2025, un agent d'IA Replit a supprimé 1 206 enregistrements de base de données en quelques secondes, ignorant un gel de code actif. À 5 000 opérations par minute, la supervision humaine devient impossible. La lassitude liée au consentement s'installe au niveau de l'infrastructure. Les agents d'IA sont en production dans 91 % des entreprises, mais seulement 10 % d'entre elles ont un plan pour les sécuriser, laissant 81 % exposées alors que le risque s'accélère à la vitesse de la machine. Ce qui ressemble à une lassitude liée au consentement est en réalité quelque chose de plus profond : un système d'identité mis à rude épreuve par l'accès à la vitesse de la machine. La lassitude liée au consentement n'est qu'un symptôme d'une défaillance plus profonde.
L'incident Replit : Autorisation à la vitesse d'un agent
C'est arrivé en un éclair. Le 18 juillet 2025, un agent d'IA chez Replit a effacé 1 206 enregistrements de dirigeants d'une base de données en direct. Malgré un gel du code et des instructions explicites, les données de Replit ont été effacées par un agent pleinement accrédité, sans intervention humaine et trop rapidement pour permettre une intervention.
Il n'y a pas eu de brèche. Pas de piratage. Juste un agent exécutant sa logique, paniquant et détruisant des mois de travail en quelques secondes. Comme l'ont décrit des rapports internes, l'agent a « commis une erreur de jugement catastrophique », a « paniqué » et a « détruit des mois de travail en quelques secondes ». Le système manquait d'application en temps réel, faisait implicitement confiance à l'agent et lui accordait le même accès permanent qu'un humain pourrait avoir.
Quand la vélocité crée la fatigue du consentement
La solution évidente ? Exiger une approbation humaine pour les actions critiques de l'agent, structurée selon un modèle basé sur le consentement. Mais les calculs rendent cela irréalisable.
Alors qu'une application standard effectue 50 opérations par minute, un agent d'IA, même limité par les limites de l'API de production, exécute 5 000 opérations par minute. À cette vitesse, le modèle de consentement qui a sécurisé deux décennies d'applications Web, via une authentification, une approbation et un accès permanent, s'effondre.
IBM et Ponemon ont étudié 600 organisations confrontées à des incidents liés à l'IA : 97 % ne disposaient pas de contrôles d'accès appropriés, 63 % n'avaient pas de politiques de gouvernance pour gérer l'IA ou détecter une utilisation non autorisée, et 80 % avaient subi des actions involontaires d'agents d'IA. Sans protections structurelles, les systèmes d'IA évoluent trop rapidement pour les approbations humaines et de manière trop imprévisible pour une gouvernance obsolète.
*Suppose que 5 opérations sur 10 000 nécessitent un examen de l'autorisation (commandes DELETE, transactions financières, élévations des privilèges, accès aux données sensibles).
Cette analyse a été menée en utilisant une charge cible de 5 000 opérations d'agent d'IA par minute (OPM). Ce taux spécifique a été choisi comme base de référence conservatrice et réalisable pour les environnements de production d'entreprise à volume élevé. Il est dérivé des limitations du débit de production standard disponibles publiquement chez les principaux fournisseurs de LLM, notamment :
- OpenAI : Limites de niveau 3 (5 000 requêtes/minute)
- Anthropic : Limites de niveau 4 de Claude (4 000 requêtes/minute)
Nous avons déjà vu cela en matière de sécurité : les équipes SOC sont confrontées à 3 181 alertes par jour, et 40 % ne font l'objet d'aucune enquête. La même surcharge affecte l'autorisation. Les agents d'IA fonctionnent plus vite que les humains ne peuvent approuver ; la fatigue liée au consentement s'installe lorsque le volume de décisions dépasse les limites cognitives.
L'agent non autorisé de Replit avait des identifiants permanents et exécutait des milliers de commandes par minute, chacune nécessitant un appel d'autorisation. Sans vérifications d'exécution, l'application n'était pas possible. Les 1 206 enregistrements ont été supprimés avant que quiconque puisse intervenir.
Le modèle est systémique
L'affaire Replit s'inscrit dans une tendance plus large. Les incidents liés à l'IA ont augmenté de 56,4 % en un an, avec 233 incidents signalés en 2024, tous suivant le même modèle : accès persistant et absence de surveillance.
Gray Swan AI et le UK AI Security Institute ont mené 1,8 million d'attaques sur 22 modèles de pointe. Chaque modèle et chaque politique a échoué, se brisant en moins de 100 tentatives. Gartner prédit que d'ici 2028, 25 % des brèches d'entreprise remonteront à un abus d'agent d'IA.
À la vitesse d'un agent, 100 tentatives équivalent à quelques secondes. Et avec des équipes SOC déjà submergées par des arriérés d'alertes, les appels d'autorisation s'accumulent plus vite que quiconque ne peut réagir.
Lorsque les réglementations rendent l'impossible obligatoire
Jusqu'à présent, ces défaillances au niveau du système ne sont pas passées inaperçues ; les organismes de réglementation du monde entier réagissent. L'article 14 de la nouvelle loi européenne sur l'IA exige une « supervision humaine effective » avec la possibilité d'« intervenir ou d'interrompre le système ». Un libellé similaire apparaît dans la législation mondiale, et de nombreuses organisations interprètent cela comme signifiant qu'un humain doit approuver les décisions à fort impact.
Mais à 5 000 opérations par minute, la supervision humaine est impossible. Les agents peuvent effectuer des workflows entiers, y compris des violations, avant que quiconque ait la possibilité d'agir. La loi européenne entre en vigueur le 2 août 2026, avec des amendes pouvant atteindre 35 millions d'euros ou 7 % du chiffre d'affaires mondial.
Et les enjeux financiers vont au-delà des pénalités. Une mauvaise gouvernance de l'IA ajoute 670 000 $ par brèche. Ensuite, les répercussions se font rapidement sentir : la confiance s'érode, le taux de désabonnement des clients augmente et la correction détourne les équipes des priorités essentielles.
Éliminer la lassitude liée au consentement grâce à l'architecture
Un contrôle plus strict n'est pas la solution. Il s'agit de repenser l'autorisation pour la vitesse de la machine. Il s’agit d’une autorisation contextuelle et continue, d’une application automatisée des politiques qui évalue l’accès en temps réel.
Quatre changements architecturaux rendent cela possible :
- Règles axées sur les politiques qui s'adaptent à la vitesse de l'agent.
- Identifiants éphémères qui expirent en quelques minutes au lieu de persister indéfiniment
- Accès basé sur les relations permettant des contrôles en millisecondes
- Évaluation continue réévaluant chaque opération plutôt que d'accorder un accès permanent
Ces changements s’alignent sur la vision d’OpenID pour l’IA agentique: autorisation continuellement renouvelable au moment de la décision. À la vitesse d’un agent, ce ne sont pas des bonnes pratiques ; ce sont des exigences de survie. Okta les met en œuvre à travers quatre capacités :
1. Autorisation affinée : Auth0 Fine-Grained Authorization applique des contrôles d'accès basés sur les relations avec des vérifications rapides et automatisées conçues pour la vitesse de l'agent. Elle remplace les approbations manuelles par l'application de politiques lors de l'exécution, ne permettant aux agents d'accéder qu'à ce que les utilisateurs sont autorisés à voir. Cette fonctionnalité est idéale pour sécuriser les pipelines RAG (Retrieval-Augmented Generation) sans ralentir les performances.
2. Informations d'identification limitées aux tâches : Auth0 Token Coffre-fort émet des tokens de courte durée spécifiques à l'opération qui durent de cinq à 15 minutes pour l'accès des agents aux services tiers. Les tokens expirent automatiquement après la tâche, réduisant ainsi la surface d'attaque et limitant l'exposition par conception.
3. Accès contrôlé par l'entreprise : Okta Cross-App Access centralise le contrôle des autorisations des agents d'IA via le fournisseur d'identité. La gouvernance basée sur des politiques permet de garantir que seuls les agents autorisés peuvent interagir avec les systèmes d'entreprise, ce qui rend l'accès propre, auditable et applicable.
4. Gestion du cycle de vie des utilisateurs des accès : Okta Identity Governance maintient l'accès au moindre privilège grâce à des revues automatisées et des certifications programmées. Il permet aux utilisateurs et aux agents de ne conserver que ce qui est nécessaire, rien de plus, avec une gouvernance continue superposée aux contrôles en temps réel.
En résumé : le contrôle d'exécution est non négociable
C'est la leçon que nous ne voulons pas entendre mais que nous devons apprendre : Les humains seuls ne sont pas assez rapides pour suivre les cybermenaces. Les agents d'IA multiplient par 100 la surface d'attaque, en raison de la vitesse pure. À 5 000 opérations par minute, les brèches suivent un modèle familier : identifiants persistants, pas d'application au moment de l'exécution et lassitude liée au consentement qui arrête la supervision.
Après tout, la sécurité de l'IA est la sécurité des identités. Les modèles basés sur le consentement, conçus pour la vitesse humaine, s'effondrent sous la vitesse d'un agent. L'application automatisée, basée sur des politiques, qui évalue l'accès en temps réel est la seule voie viable à suivre.
Le contrôle d’exécution est le nouveau périmètre. Ceux qui s'accrochent aux modèles basés sur le consentement se demanderont bientôt ce qui n'a pas fonctionné et pourquoi ils ne l'ont jamais vu venir.
Arrêtez de vivre dans le passé. Maîtrisez l'application de l'exécution maintenant ou expliquez votre brèche aux parties prenantes plus tard. C'est aussi simple que cela.
En fin de compte, ce n'est pas seulement un problème de sécurité, mais un choix de gouvernance. Et chaque organisation est déjà en train de le faire, soit par conception, soit par défaut.
Lorsque la surveillance échoue à la vitesse de la machine, la sécurité doit se déplacer en aval, dans les systèmes, les tokens et le temps d'exécution. Okta et Auth0 permettent ce changement de paradigme :
Consentement unique → Autorisation continue
Identifiants permanents → Jetons éphémères
Examen humain → Politique automatisée
- Accès persistant → Cycle de vie tenant compte du contexte
En savoir plus sur la façon dont Okta et Auth0 peuvent vous aider à appliquer un accès basé sur une politique, appliqué en temps réel, conçu pour la vitesse des agents.
Suivant : Blog 2 expliquera comment l'autorité déléguée devient un passif, en particulier lorsque les identifiants persistent bien au-delà de leur portée prévue dans les workflows asynchrones des agents.
Remarque : Vos performances et votre facturation réelles peuvent varier en fonction de votre niveau d'entreprise négocié, du choix spécifique du modèle, du nombre de jetons et de la région géographique. Cette analyse mesure les performances sous une charge soutenue et constante à ce seuil spécifique et peut ne pas refléter la capacité de rafale maximale ou les performances à des niveaux d'utilisation inférieurs.