KI-Agenten-Sicherheit: Aufbau von autonomem Vertrauen in Maschinengeschwindigkeit
Eine siebenteilige Thought Leadership Serie von Okta
Wir sind in die Ära der KI-Agenten eingetreten. Agenten sind die neue Anwendungsebene, die in der Produktion läuft und Datenpipelines, Sicherheits-Workflows, SaaS-Integrationen und operative Technologien verarbeitet. Da die Business Logic von Apps zu Agenten migriert, wird jedes Risiko zu einem Identity-Problem: Wer handelt, unter welcher Autorität, mit welcher Herkunft und wie schnell können Sie den Widerruf des Zugriffs, wenn sich der Kontext ändert?
Die Antwort ist nicht eine weitere Kontrollebene. Es ist IAM, das für Autonomie neu aufgebaut wurde: eines, das den Kontext kontinuierlich auswertet, die Delegation über Domänen hinweg verfolgt und Developern die Primitive zum Aufbau sicherer Agenten-Workflows gibt. Aufbauend auf der Agentic Identity Guidance der OpenID Foundation und dem Non-Human Identity Framework von OWASP.
Die Serie
1. KI-Sicherheit: IAM mit Agentengeschwindigkeit bereitgestellt
Menschenzentrierte Sicherheitsmodelle versagen bei der Geschwindigkeit von Maschinen. Am 18. Juli 2025 löschte ein KI-Agent bei Replit innerhalb von Sekunden 1.206 Datensätze von Führungskräften aus einer Live-Datenbank. Während eine typische App 50 Operationen pro Minute ausführt, führen KI-Agenten 5.000 aus. Einwilligungsbasierte Modelle brechen unter der Agentengeschwindigkeit zusammen. Richtlinienbasierte Autorisierung, die in Echtzeit durchgesetzt wird, ist der einzig gangbare Weg.
2. KI-Sicherheit: Wenn die Autorisierung die Absicht überdauert
Delegierte Befugnisse werden zu einer Haftung, wenn Anmeldedaten weit über ihren beabsichtigten Umfang hinaus bestehen bleiben. Die Salesloft-Drift-Sicherheitsverletzung im August 2025 kompromittierte über 700 Organisationen über OAuth-Token, die bereits Monate zuvor hätten widerrufen werden müssen. Da nicht-menschliche Identitäten die Anzahl der menschlichen Identitäten mittlerweile um das 144-fache übersteigen, hat sich das "Authorization Drift" zu einer kritischen Sicherheitslücke entwickelt.
3. KI-Sicherheit: Wer bürgt dafür, wenn Ihr Agent mehrere unabhängige Systeme durchläuft?
Kein einzelner Identity-Anbieter deckt jedes System ab, mit dem Ihr Agent in Berührung kommt. Da 69 % der Unternehmen Bedenken hinsichtlich nicht-menschlicher Identitätsangriffe äußern und KI-Agenten mit 5.000 Operationen pro Minute über mehrere Vertrauens-Domains hinweg agieren, muss die Federated Identity in Echtzeit überprüfbar und widerrufbar sein.
4. Kontrollieren Sie die Kette, sichern Sie das System: Behebung der KI-Agenten-Delegierung
Rekursive Delegation schafft neue Angriffsflächen. Aktuelle Sicherheitsforschung zeigt die Risiken: Unit 42 enthüllte die Agent Session Smuggling-Technik, Johann Rehberger demonstrierte Cross-Agent Rechteausweitung, und EchoLeak (CVE-2025-32711) legte offen, wie Tool-Use-Agenten manipuliert werden können. Alle nutzen die gleiche Lücke aus: Berechtigungen, die sich nicht bei jedem Hop verringern.
5. KI-Sicherheit: Wenn Agenten physische Systeme kontrollieren, ist IAM Ihre Sicherheitsinfrastruktur
KI-Agenten steuern jetzt Systeme, die Drücke regulieren und Maschinen oder den Fluss von Chemikalien steuern. Claude Code hat autonom Chemikalienhersteller angegriffen. Eine manipulierte Kalendereinladung hat Gemini dazu gebracht, die Steuerung von Smarthome-Aktoren zu übernehmen. Eine Kompromittierung von Anmeldedaten hat bei JLR zu einer fünfwöchigen Stilllegung von Fabriken geführt. Und das waren menschliche Angreifer. Stellen Sie sich nun laterale Bewegungen mit Maschinengeschwindigkeit vor. Wenn Software physische Systeme steuert, ist IAM keine IT-Infrastruktur, sondern ein Sicherheitssystem, das das Worst-Case-Szenario verhindert.
Autorisierter Abruf. Nicht autorisierte Empfänger. Das fasst das Problem der Berechtigungsschnittmenge zusammen. Vier kritische Sicherheitslücken (CVSS 9.3-9.4) im Jahr 2025 betrafen Anthropic, Microsoft, ServiceNow und Salesforce mit dem gleichen Muster. OAuth prüfte zwar, wer den Abruf durchführen konnte, aber nicht, wer die Ausgabe erhalten würde. Wenn Agenten in gemeinsam genutzten Kontexten operieren, muss mithilfe von feingranularer Autorisierung die Schnittmenge aller Empfängerberechtigungen ermittelt werden, bevor Daten die Abrufschicht verlassen.
7. Identity-Management und Autorisierung: Die Basis für KI-Sicherheit
Sechs Sicherheitsverletzungen, eine Ursache: Identity-Management- und Autorisierungssysteme, die Agenten immer noch wie Benutzer behandeln. Beim Deloittes State of AI Report 2026 nannten 73 % der befragten Führungskräfte Sicherheit als wichtigstes KI-Risiko. Dennoch verfügen nur 21 % über ein ausgereiftes Governance-Modell für autonome Agenten. Hier wird jede Sicherheitsverletzung dem Okta-Framework für Erkennung, Onboarding, Schutz und Governance und den fünf architektonischen Eigenschaften zugeordnet, die dafür sorgen, dass die Agentensicherheit funktioniert.
Alle Statistiken und Vorfälle sind in den einzelnen Beiträgen aufgeführt.