エージェント型AIの急速な台頭により、単なる「プロンプトと回答」の時代は過去のものとなりました。バックエンドのAPI連携から自律的なカスタマーサービスまで、AIエージェントは新たな「デジタル労働力」へと進化しています。しかし、生産性が飛躍的に向上する一方で、これらのAIエージェントは、従来のアイデンティティ管理が届かないシャドー領域で、強力なアクセス権限を保持したまま稼働するリスクを孕んでいます。

この新たなリスクに対する唯一の解は「可視化」です。Oktaは、AIエージェント向けソリューション「Okta for AI Agents」の基幹機能である「Agent Discovery」の早期アクセス(EA)開始を発表しました。従業員とAIツールの間の「ハンドシェイク」を捕捉することで、Oktaはセキュリティの「ファーストマイル」を担い、シャドーAIエージェントを「管理されたアイデンティティ」へと転換します。

可視性の欠如:セキュリティリーダーが直面する重大なリスク

現在、多くのセキュリティリーダーは以下のような問いへの回答に苦慮しています。

  • 未承認のAIツールを通じて、企業の知的財産や顧客データが漏洩していないか?

  • 生産性向上のために多額の投資を行い、承認済みのAI構築プラットフォームを導入したが、それによってどれほどのリスクを抱え込んだのか?万が一ハッキングされた場合の最悪のシナリオは何か?

  • 過剰な権限を持ち、ローテーションされていないAPIキーをどのエージェントが使っているのか?また、そのエージェントが暴走した場合、責任を負う人間は誰なのか?

もしあなたがこれらの課題に取り組んでいるなら、それはあなただけではありません。企業のエージェント化を急ぐあまり、深刻な「可視性の空白」が生じています。AIエージェントのセキュリティポスチャに自信を持つためには、明確な可視化が不可欠です。

Agent Discoveryを利用すれば、以下の4つのステージを通じて、AI資産のコントロールを取り戻すことができます。

ステージ1:重要資産となるAIプラットフォーム上のエージェントを把握する

「認可していること」と「可視化できていること」は別物です。AIチームがMicrosoft Copilot、Salesforce Agentforce、AWS Bedrock、OpenAI、Google Vertex AI、Gemini Enterpriseなどの承認済み環境で迅速に開発を進める一方で、セキュリティチームにはそれらの本番環境を監査するための管理者権限や専門知識が不足していることが少なくありません。十分なリソースがあるチームでさえ、膨大な量のエージェントを一つひとつ手作業で監視することは不可能です。

その結果、AIの侵害が発生した際に、「責任は問われるもののリスク状況を検証する手段がない」という、危険な「責任のギャップ」が生じます。インシデントを防ぐには、ポスチャの制御と監査の設定が必要です。しかし、設定を簡略化するためにエージェントにスーパー管理者権限が与えられていないか、あるいは重要な本番環境と安全でない開発環境を危険な形で橋渡ししていないか、今のあなたに検知できるでしょうか?

インシデント発生後、これらのプラットフォーム上のエージェントが侵害された場合、そのエージェントがアクセス可能なデータの正確なリストを作成できますか?

現状は「信頼して、検証する」ことを強いられています。しかし、エージェントと権限の自動化されたインベントリがなければ、検証は不可能です。

Oktaのソリューション: これらの重要資産(クラウンジュエル)を詳細に分析し、誰がどのエージェントを所有しているか、そのエージェントに実際にどのような権限が与えられているか、そして最大の懸念点はどこにあるかを特定します。これにより、承認済みプラットフォームがブラックボックスから「管理された資産」へと変貌させます。

ステージ2:未承認プラットフォームで構築された未知の強力なエージェントを発見する

見えないものを管理することはできません。多くの組織が少数の承認済みツールに注力する一方で、各部門では攻撃対象領域が気づかぬうちに拡大している可能性があります。未承認のプラットフォーム、未審査のエージェントビルダー、隠れたMCPサーバーなど、セキュリティやIT部門の監視外で動作する「未知のレイヤー」が存在します。

このリスクの主な要因は「OAuth認可」です。自作あるいは隠れたエージェントを機能させるために、従業員が「ユーザー同意」を通じて基幹業務データへのアクセスを許可します。このプロセスで発行される「OAuthトークン」は、アプリがユーザーに代わってデータにアクセスし、アクションを実行することを許可するデジタルキーとなります。

Oktaのソリューション: Okta Secure Access Monitor(SAM)ブラウザプラグインが、リアルタイムのOAuthシグナルをIdentity Security Posture Management(ISPM)に供給し、以下の制御を支援します。

  1. 未承認プラットフォームで構築されたエージェントの特定

  2. 過剰なアクセス権限の特定:エージェントに危険な権限を与える特定の「スコープ」を浮き彫りにします。

  3. シャドーSaaSの顕在化:法務やプライバシーの審査をバイパスし、規制やデータ所在地のリスクにさらしている未承認アプリを検知します。

また、Oktaはこれらのエージェントを「既知の管理されたアイデンティティ」として登録し、セキュリティポリシーを適用し、人間の所有者を割り当てることで、ガバナンスの管理下に置くことを支援します。

ステージ3:非人間アイデンティティ(NHI)を保護する

AIエージェントは、APIトークン、アクセスキー、サービスプリンシパル、OAuthトークンなど、複数の非人間アイデンティティ(NHI)で動作します。AIをセキュアにするには、「ボット」という概念を超えて、エージェントが重要なアプリやデータにアクセスすることを可能にしている「技術的な鍵」そのものを強固にする必要があります。これには、AIエージェント、作成者、稼働させている特定のNHI、アクセス可能なアプリ間のグラフ接続を深く可視化することが求められます。

Oktaのソリューション: SaaS、IdP、クラウドインフラ、オンプレミスのActive Directory(AD)にわたる複数のNHIタイプを、単一のビューで可視化します。NHIに関する「OWASP Top 10」に基づいた25以上の優先順位付きリスク検知により、過剰な権限や更新されていない認証情報などの重大な不備を、AIエージェントの侵害に悪用される前に特定し、リスクを劇的に軽減します。

ステージ4:可視化を「修復」へつなげる統合プラットフォーム

発見されたAIエージェントとNHIを、同じアイデンティティプラットフォームで管理できることがOktaの強みです。Oktaはプラットフォームを選ばないため、出自を問わずエージェントを発見・統合できます。これにより、人間か非人間かを問わず、全労働力に対して一貫したセキュリティポリシーを適用できるようになります。

結論:アイデンティティセキュリティこそがAIセキュリティである

自律的な労働力への移行において、スピードと安全性のどちらかを選ぶ必要はありません。本質的に、AIセキュリティとはアイデンティティセキュリティそのものです。AIエージェントをOktaが提唱するアプローチとなるIdentity security fabricに統合することで、未知のリスクを「管理された資産」へと変え、侵害の影響範囲を広げることなくイノベーションを加速させることができます。

 

  • 詳細はこちら: 最初のコードからエージェントのライフサイクル全体に至るまで、OktaがいかにAIを保護するかをご確認ください。
  • デモを見る: AIエージェントのライフサイクルをセキュアにする具体的な方法をデモでご覧いただけます。