KI-Agenten-Sicherheit: Aufbau von autonomem Vertrauen in Maschinengeschwindigkeit
Eine siebenteilige Thought Leadership Serie von Okta
Wir sind in die Ära der KI-Agenten eingetreten. Agenten sind die neue Anwendungsebene, die in der Produktion läuft und Datenpipelines, Sicherheits-Workflows, SaaS-Integrationen und operative Technologien verarbeitet. Da die Business Logic von Apps zu Agenten migriert, wird jedes Risiko zu einem Identity-Problem: Wer handelt, unter welcher Autorität, mit welcher Herkunft und wie schnell können Sie den Widerruf des Zugriffs, wenn sich der Kontext ändert?
Die Antwort ist nicht eine weitere Kontrollebene. Es ist IAM, das für Autonomie neu aufgebaut wurde: eines, das den Kontext kontinuierlich auswertet, die Delegation über Domänen hinweg verfolgt und Developern die Primitive zum Aufbau sicherer Agenten-Workflows gibt. Aufbauend auf der Agentic Identity Guidance der OpenID Foundation und dem Non-Human Identity Framework von OWASP.
Die Serie
1. KI-Sicherheit: IAM mit Agentengeschwindigkeit bereitgestellt
Menschenzentrierte Sicherheitsmodelle versagen bei der Geschwindigkeit von Maschinen. Am 18. Juli 2025 löschte ein KI-Agent bei Replit innerhalb von Sekunden 1.206 Datensätze von Führungskräften aus einer Live-Datenbank. Während eine typische App 50 Operationen pro Minute ausführt, führen KI-Agenten 5.000 aus. Einwilligungsbasierte Modelle brechen unter der Agentengeschwindigkeit zusammen. Richtlinienbasierte Autorisierung, die in Echtzeit durchgesetzt wird, ist der einzig gangbare Weg.
2. KI-Sicherheit: Wenn die Autorisierung die Absicht überdauert
Delegierte Befugnisse werden zu einer Haftung, wenn Anmeldedaten weit über ihren beabsichtigten Umfang hinaus bestehen bleiben. Die Salesloft-Drift-Sicherheitsverletzung im August 2025 kompromittierte über 700 Organisationen über OAuth-Token, die bereits Monate zuvor hätten widerrufen werden müssen. Da nicht-menschliche Identitäten die Anzahl der menschlichen Identitäten mittlerweile um das 144-fache übersteigen, hat sich das "Authorization Drift" zu einer kritischen Sicherheitslücke entwickelt.
3. KI-Sicherheit: Wer bürgt dafür, wenn Ihr Agent mehrere unabhängige Systeme durchläuft?
Kein einzelner Identity-Anbieter deckt jedes System ab, mit dem Ihr Agent in Berührung kommt. Da 69 % der Unternehmen Bedenken hinsichtlich nicht-menschlicher Identitätsangriffe äußern und KI-Agenten mit 5.000 Operationen pro Minute über mehrere Vertrauens-Domains hinweg agieren, muss die Federated Identity in Echtzeit überprüfbar und widerrufbar sein.
4. Kontrollieren Sie die Kette, sichern Sie das System: Behebung der KI-Agenten-Delegierung
Rekursive Delegation schafft neue Angriffsflächen. Aktuelle Sicherheitsforschung zeigt die Risiken: Unit 42 enthüllte die Agent Session Smuggling-Technik, Johann Rehberger demonstrierte Cross-Agent Rechteausweitung, und EchoLeak (CVE-2025-32711) legte offen, wie Tool-Use-Agenten manipuliert werden können. Alle nutzen die gleiche Lücke aus: Berechtigungen, die sich nicht bei jedem Hop verringern.
5. Wenn Ihr Agent physische Systeme steuert: Autorisierung als Sicherheitsebene erforderlich [Demnächst verfügbar]
Identität und Autorisierung werden zu kritischen Sicherheitsmechanismen, wenn KI-Agenten mit cyber-physischen Systemen interagieren, bei denen Fehler physischen Schaden verursachen können.
6. Wenn ein Agent mehr Zugriff hat als das halbe Team: Notwendigkeit gemeinsamer Verantwortlichkeit ohne gemeinsame Privilegien [Kommt bald]
Agenten sammeln Berechtigungen, die den individuellen menschlichen Zugriff überschreiten. Wie stellen Sie Verantwortlichkeit ohne gemeinsam genutzte Berechtigungen her?
7. Identität als Betriebssystem für autonomes Vertrauen: Wie Okta die Agentensicherheit vereinheitlicht [Demnächst verfügbar]
Der Schlussstein: wie die Identity Security Fabric von Okta zur Steuerungsebene für autonome Systeme wird.
Alle Statistiken und Vorfälle sind in den einzelnen Beiträgen aufgeführt.