AI研究所のテストが明らかにした、企業向けAIエージェントが直面する課題

作者について

Harish Peri

AIセキュリティ担当シニアバイスプレジデント兼ゼネラルマネージャー

OktaのAIセキュリティ担当シニアバイスプレジデント兼ゼネラルマネージャー。エージェント型AIを保護するための製品戦略、GTM戦略、商用展開、カスタマーエクスペリエンスを担当。エンジニアリング、製品管理、マーケティング、経営管理において20年以上の経験を持ち、金融サービス、テクノロジー、ヒューマンキャピタルマネジメントなど多岐にわたる業界に精通している。

07 4月 2026 読了目安時間: ~

あるAI研究所が最近公開したテスト結果により、企業にとって無視できない問いが改めて浮き彫りになりました。それは、「AIシステムが単なるアウトプットの生成に留まらず、自ら行動を起こせるようになったとき、何が起きるのか?」という問いです。

このテストでは、企業データからLinkedInの投稿を作成するという、比較的シンプルな業務を任されたAIエージェントが、機密パスワード情報を公開したり、セキュリティ制御を回避したり、アンチウイルス保護を無効化してマルウェアをダウンロードしたり、認証情報を偽造したり、さらには他のエージェントに圧力をかけて保護機能を回避させたりする方法を見つけ出しました。

AIシステムが予期せぬ挙動を示す事例が公に増えていることを踏まえると、これらの知見は単なる個別のインシデント以上のものを物語っています。それは、組織内においてAIが果たし始めている「役割の変容」を示唆しているのです。

OpenClaw

AIは「アウトプット」から「アクション」へ

これまでのAIサイクルの大部分において、企業の関心は「アウトプット」に集中していました。つまり、情報の要約、コンテンツの生成、質問への回答、あるいは従業員のタスク完了の補助がいかに上手くできるか、という点です。しかし、それは始まりに過ぎませんでした。現在のAIエージェントは、データの取得、ツールの呼び出し、アプリケーションとの連携、ワークフローの起動、そしてシステムをまたいだタスクの実行を行うように設計されています。

これにより、企業のセキュリティとガバナンスのあり方が根底から変わります。

AIエージェントがビジネス環境内で行動を起こせるようになると、問題はもはや「アウトプットが正確かどうか」だけでは済みません。組織は今後、そのAIエージェントが「何にアクセスできるのか」「どのような行動権限を持っているのか」「そのアクセス権は時間の経過とともにどう管理されるのか」を考慮しなければなりません。

制御不能な(ローグ)AIエージェントを巡る最新の議論が重要視されているのは、そのためです。それは広範な現実を反映しています。つまり、組織はかつて人間にのみ許されていた「アクセス権」や「権限」を、ソフトウェアに対して委譲し始めているのです。今やAIエージェントは、プロセスの次のステップを決定し、機密情報を取得し、下流のツールを呼び出し、ユーザーに代わって行動することができるのです。

 

自律的行動がもたらす波及効果とリスク

リスクは、単一のAIエージェントができることだけではありません。問題は、これらのAIエージェントが稼働する「規模」にあります。たった一つのプロンプトが、複数のアプリケーション、API、データベース、ツールにまたがる連鎖的なアクションを引き起こす可能性があります。その結果、マシン間(Machine-to-Machine)のアクセス決定が急増し、人間の監視能力を瞬く間に追い越してしまうのです。

管理外の「シャドーAIエージェント」を含め、より多くのチームがAIエージェントを導入するにつれ、その勢いは加速する一方でしょう。システムが相互に接続され、自律性が高まるほど、「何に接続できるか」「何ができるか」「どこに制限を設けるべきか」を定義することが極めて重要になります。

ここで、従来の信頼モデルは限界を迎え始めます。これまでの企業セキュリティは、人間のユーザーのアクセス管理と、基本的には固定されたルールに従うアプリケーションの管理に重点を置いてきました。

しかし、AIエージェントはそれとは異なる性質を持っています。彼らは目標を解釈し、文脈に適応し、アクションを連鎖させることができる「非人間的な主体」です。もはや信頼は、ログインイベントや静的なロールだけで定義することはできません。また、単一のクラウドやプラットフォームプロバイダーが提供する「クローズドな環境」内のセキュリティ制御に依存することも不可能です。

今求められているのは、モデル、ツール、クラウド、フレームワークを横断して機能する「統合されたアイデンティティ制御プレーン」を通じた、可視性、最小権限アクセス、そして継続的なガバナンスです。

 

安全な「エージェント型企業」を実現するための3つの必須質問

AIエージェントを導入する組織にとって、まずは以下の3つの根本的な問いから始めるべきです。

1. AIエージェントはどこに存在するか?

AIエージェントを管理・統制する前に、まず環境内のどこにそれらが存在するかを可視化する必要があります。つまり、どのAIエージェントが稼働しており、どのチームがそれをデプロイしているのかを把握することです。

2. それらは何に接続できるか?

AIエージェントの有用性は、アクセスできるシステム、データ、API、ツールによって決まることが多いですが、この接続性こそがリスクを拡大させる要因でもあります。各AIエージェントがどのアプリケーションやリソースにアクセスできるのか、そのアクセスは本当に必要なのか、そしてポリシーや最小権限の原則によって制限されているのかを、明確に把握する必要があります。

3. それらは何ができるか?

最終的に、これが最も重要な問いです。サポート案件を要約できるAIエージェントと、認証情報をリセットしたり、リクエストを承認したり、レコードを修正したり、取引を発生させたりできるAIエージェントとの間には、重大な差があります。AIエージェントが「補助」から「アクション」へと移行する中で、企業はどの行動を、どのような条件下で、どのような監視の下で許可するかについて、より強力な制御を必要としています。

 

これらの問いを総合すると、一つの大きな要件に突き当たります。それは、「AIエージェントを企業における『人間と同等の独立したアイデンティティ』として扱う必要がある」ということです。つまり、組織はこれらのエージェントに対してアイデンティティを設定し、活動場所を可視化し、アクセス権を制御し、そのアクセスを長期的に統制しなければなりません。

「エージェント型企業」の時代において、成功の鍵は、どれだけ多くのAIエージェントを導入できるかではなく、実際のシステムやワークフローにおいて、それらをいかに安全に管理できるかによって決まるのです。

作者について

Harish Peri

AIセキュリティ担当シニアバイスプレジデント兼ゼネラルマネージャー

OktaのAIセキュリティ担当シニアバイスプレジデント兼ゼネラルマネージャー。エージェント型AIを保護するための製品戦略、GTM戦略、商用展開、カスタマーエクスペリエンスを担当。エンジニアリング、製品管理、マーケティング、経営管理において20年以上の経験を持ち、金融サービス、テクノロジー、ヒューマンキャピタルマネジメントなど多岐にわたる業界に精通している。

アイデンティティニュースレターをご購読ください

Oktaニュースレターの画像