AIエージェントのアイデンティティとは自律システムの保護

更新済み: 2025年10月29日 読了目安時間: ~

AIエージェントのアイデンティティは、エージェント型AIを保護する上で基本的な概念です。これは、特定の権限、コンテキスト認識、およびライフサイクル全体にわたる継続的なガバナンスに関連付けられた、自律型システムの固有の検証可能なデジタルアイデンティティを指します。

AIエージェントの課題を理解する

AIエージェントが人間の直接的な監督なしに、エンタープライズ環境全体で意思決定、タスクの実行、相互作用を行うにつれて、組織は、機械の速度で自律的な推論を保護するように設計されたアイデンティティフレームワークを採用する必要があります。

主な特徴:

  • 自律的な運用:定義済みのセキュリティ境界内で独立して動作し、検証済みの認証情報と認証済みのAPI呼び出しを介してシステムにアクセスしながら、包括的な監査証跡を維持します。

  • 永続的なコンテキスト:セッションを超えて運用履歴とコンテキストメモリーを維持

  • 動的な意思決定:多段階の計画を通じて定義された結果を追求し、各アクションはアイデンティティポリシーとアクセス許可に対して承認されます。

自律システムのアイデンティティ要件:

  • 委任チェーン:スコープ設定、監査可能、および有効期限付きの認証情報でアクションを実行します(エージェント間の委任を含む)。

  • コンテキストに応じた認可:エージェントの動作と環境条件に基づいてリアルタイムでポリシー評価を行います。

  • 行動検証:承認されたユースケース、環境コンテキスト、および過去の行動に照らして、エージェントの意思決定を監視します。

業界のフレームワークと標準:

  • NIST AI Risk Management Framework:信頼できるAIの開発と展開のための自主的なガイダンスを提供し、ガバナンス、リスク評価、および軽減戦略を重視しています。

  • OWASP Agentic Security Initiative: 新興のエージェントの脅威と軽減戦略の脅威モデルベースのリファレンスを提供します。

AIエージェントのセキュリティが従来のアイデンティティモデルと異なる点。

拡大するアイデンティティの状況

組織は現在、人間のユーザー1人に対し、少なくとも45個のマシンアイデンティティを管理するのが一般的です。また、AIエージェントは、企業クラウド全体でこの数を急速に拡大させています。

ヒューマンID管理との根本的な違い:

  • 速度と自律性:AIエージェントは継続的に動作し、常に人間の介入なしに行動し、推論します。

  • 許可の複雑さ:AIエージェントは意思決定を行い、複雑なアクションを連鎖させ、独立して動作することができます。

  • 動的な特権要件:エージェントは、タスクのコンテキストと環境条件に基づいて変化するアダプティブなアクセスを必要とします。

もはや当てはまらないレガシーの考え方:

  • 線形で予測可能な意思決定シーケンス

  • すべての重要なアクションに対する人間の承認

  • 静的なルールベースの運用上の制約

  • 一元化された監視および制御ポイント

増幅されたリスク

AIエージェントは、既存の非人間アイデンティティ(NHI)のセキュリティ課題を増大させます。AIエージェントは、マシンの速度と規模で動作し、複数のツールと許可を予測不能に調整しながら、数千ものアクションを数秒で実行します。

規制コンプライアンスのギャップ

EU AI法では、高リスクのAIシステムが効果的な人間の監督を可能にする必要がありますが、自律的な運用は、人間の意思決定を義務付ける規制要件と矛盾する可能性があります。

AIエージェントのID管理の主要コンポーネント

AIエージェント向けの最新のアイデンティティ優先アプローチには、正当な自律的な動作と潜在的なセキュリティ異常を区別するアダプティブ認証メカニズムが含まれています。これは、行動コンテキストとリスクベースの意思決定をすべてのアクセス要求に組み込んでいるため、従来のサービスアカウント管理とは異なります。

アイデンティティ中心のアクセスコントロールフレームワーク

一意のエージェントアイデンティティ

  • 各自律型システムの暗号的に検証可能な認証情報

  • 人間のユーザーアカウントおよび従来のサービスアカウントからの明確な分離

  • 明示的にスコープされ、監査可能で、時間制限のある認証情報。共有または永続的なトークンではありません。

動的な認可モデル

  • ポリシーベースのアクセスコントロール:エージェントコンテキスト、リスク評価、および運用要件に基づくリアルタイムのポリシー評価

  • 最小権限の原則:迅速な対応を可能にしながら、セキュリティリスクを最小限に抑える一時的な昇格された特権

  • コンテキストに応じた許可:エージェントの動作、環境条件、およびタスクの複雑さに基づいて適応するアクセス権

行動アナリティクスと監視

  • 継続的な認証:きめ細かい許可による動的な行動パターン分析

  • 異常検出:予期される行動ベースラインから逸脱するエージェントのアクションをリアルタイムで特定します。

  • 意思決定チェーンのロギング:包括的な監査証跡のために、推論プロセス、ツールの使用状況、およびデータアクセスパターンを記録します。

委任および偽装の制御

  • 安全な委任チェーン:エージェントのインタラクション全体で責任を維持する検証可能な権限パス

  • エージェント間の認可:安全な委任と検証可能な認証情報を通じて連携するエージェントのネットワーク。各エージェントは独自のアイデンティティを持ちますが、統一されたガバナンスの下で動作します。

  • 時間制限付き権限:露出ウィンドウを最小限に抑えるための認証情報の自動有効期限切れとローテーション

統合要件

  • APIファーストアーキテクチャ:標準化されたプロトコルを介した既存のアイデンティティインフラストラクチャとのシームレスな統合

  • ゼロトラストの原則:永続的な信頼の前提なしに、すべてのエージェントアクションに対する継続的な認証、およびアイデンティティアサーションの継続的な検証

  • ガバナンスフレームワーク:すべての関連するビジネス機能にわたってAIの専門知識を統合する、組織にまたがるガバナンスチーム

業界の課題とリスクの状況

重大なセキュリティの脅威

  • アイデンティティなりすましと特権の乱用

攻撃者は正当なAIエージェントになりすまして、Privileged Accessを悪用します。

  • 盗まれた認証情報は、保護されたリソースへの不正アクセスを許可します

  • なりすまされたアイデンティティは、悪意のあるアクティビティと通常のオペレーションを混同させます。

  • 偽造されたエージェント認証は、AIアイデンティティ検証コントロールをバイパスします

  • 認証情報のセキュリティリスク

不適切な認証情報管理は、永続的な脆弱性を生み出します。

  • 長期的な認証情報と不適切なローテーション慣行は、エンタープライズ環境全体で依然として広まっています

  • AIエージェントは多くの場合、複数のシステムにわたって広範な許可を必要とするため、ラテラルムーブメント攻撃の主要な標的になります

  • エージェントのハイジャック

信頼できるAIエージェントは、悪意のある入力を処理する際に攻撃ベクトルになります。

  • 攻撃者は、システムログや構成ファイルなどの一見正当な入力にコマンドを組み込みます。

  • 侵害されたエージェントは、検出されずに不正なアクションを実行します。

  • 隠された指示は、従来のセキュリティコントロールをバイパスします

  • 運用上の複雑さ

複雑なエージェントのインタラクションと依存関係により、セキュリティリスクが増大します。

  • チェーン化されたツールインタラクションは、相互接続されたシステム全体でカスケード的な侵害を引き起こします。

  • サードパーティのAPI依存関係により、サプライチェーンの脆弱性が生じます。

  • 十分な初期アクセス権を持つAIエージェントは、承認プロセスをバイパスして、自身のアクセス許可を変更できます

  • コンプライアンスとガバナンスのギャップ

現在のフレームワークは、自律的なAIエージェントのオペレーションに対処するのに苦労しています

  • 自律的な意思決定は、適切な監査証跡なしに行われます。

  • エージェントのアクションには明確なアカウンタビリティチェーンがありません

  • 規制のフレームワークは、自律的な機能に追いつくことができません。

ベストプラクティスと実装戦略

基盤となるセキュリティコントロール

  • アイデンティティライフサイクル管理

包括的なライフサイクルコントロールにより、AIエージェントが作成から廃止まで適切に管理されることが保証されます。

  • エージェントのデプロイサイクルに合わせた、自動化されたプロビジョニングとプロビジョニング解除

  • 実証された信頼性に基づいて、段階的な許可レベルを備えた段階的な自律制御

  • 定期的なアクセスレビューと特権の最適化

  • 強化されたセキュリティ対策

組織は、AIエージェントによってもたらされるリスクを軽減するために、追加のセキュリティ対策を組み込む必要があります。

  • 委任された認可のためのOAuth 2.0

  • ハードコードされた認証情報を排除するための管理対象アイデンティティサービス

  • 機密データの暗号化

ガバナンスと監視

  • ヒューマンインザループのチェックポイント

機密性の高い、または影響の大きい意思決定のための戦略的な介入ポイントを確保します。

  • エージェントシステム内の脆弱性と攻撃経路を特定するために、定期的なレッドチーム演習を実施します

  • セキュリティ、法務、リスク、およびAI/MLの専門家を共有ガバナンスフレームワークに組み込み、安全性と俊敏性を確保します。

将来の見通しと業界標準

エンタープライズアイデンティティプラットフォームは、ヒューマンとAIエージェントのアイデンティティ全体にわたる統合された可視性を提供するように進化しており、自律システムの独自の運用パターンに対応しながら、一貫したポリシーを可能にします。

テクノロジーのトレンド

  • セキュリティアドオンとして後付けされるのではなく、コアアーキテクチャにガバナンスが組み込まれたアイデンティティネイティブフレームワーク

  • エンタープライズ境界を越えた安全なエージェントオペレーションを可能にする組織間連携プロトコル

  • 確立された標準に従って、長期的なAIエージェントの認証情報のための量子耐性暗号化技術の実装

AIエージェントにとって不可欠なアイデンティティ

AIエージェントのアイデンティティは、エンタープライズセキュリティにおける中心的な変化を表しており、従来型のID管理を超えて、マシンの速度と規模で動作する自律システムを保護するためのフレームワークを必要とします。

重要なポイント:

  • AIエージェントには、ヒューマンユーザーおよび従来のアプリケーションとは異なるアイデンティティ Lifecycle Management が必要です

  • セキュリティフレームワークは、自律的な意思決定と動的なアクセス許可の要件に対応するように進化する必要があります

  • 業界標準と規制コンプライアンスは、自律型AIのリスクに対処するために急速に進化しています

OktaでAIエージェントのアイデンティティを保護

根本的な課題は、従来のアイデンティティシステムがアクセスをバイナリステートとして扱っていることです。認証されているか、そうでないかのどちらかです。しかし、今日の自律型エージェントは、運用ライフサイクル全体を通じて、継続的なコンテキスト認識型の検証を必要とします。

主要なアイデンティティプラットフォームは現在、AIエージェントの保護には、静的な認証情報から動的な信頼評価への移行が必要であることを認識しています。ここでは、すべてのエージェントアクションが、承認される前に、行動ベースライン、環境条件、およびリアルタイムのリスクシグナルに対して評価されます。

Okta Platformが、AIエージェントにシームレスに拡張される包括的なアイデンティティソリューションをどのように提供するかをご覧ください。クラウド、SaaS、ハイブリッド環境全体で、自動化されたディスカバリー、Lifecycle Management、およびガバナンスを提供します。

詳細を見る

FAQ

AIエージェントはアイデンティティまたは認証情報を共有できますか?

いいえ。各AIエージェントには、独自の固有のアイデンティティと特定の許可が必要です。共有認証情報はセキュリティの脆弱性を生み出し、特定のアクションを実行したエージェントを追跡することを不可能にします。

侵害されたAIエージェントのアクセス権の取り消しはどのように行いますか?

最新のアイデンティティプラットフォームは、即時の認証情報失効機能を提供し、他のオペレーションを中断したり、手動による介入を必要としたりすることなく、接続されているすべてのシステムに対するエージェントのアクセスを制限します。

AIエージェントが何を決定したかをどのように監査しますか?

高度なアイデンティティシステムは、AIエージェントが実行したアクション、推論チェーン、および各決定に影響を与えたコンテキスト要因を記録し、包括的な監査証跡を作成します。

アイデンティティ施策を推進