AIエージェントをセキュアに管理・制御

AIエージェントは次の内部脅威となる存在であり、その可視化、管理、制御を行う力をOktaが提供します。

エージェントの台頭により新たなセキュリティ対策が必要に

AIの導入は加速していますが、セキュリティとガバナンスが遅れており、重大かつ未管理のリスクが生じています。

91%

すでにAIエージェントを利用している組織の割合1

80%

意図しないエージェントの挙動を経験した組織の割合2

80%

エージェントによる認証情報の漏洩を報告した組織の割合2

23%

ガバナンスを整備していない組織の割合2

近日リリース予定

AIエージェントのライフサイクルを保護

AIエージェントはアイデンティティ・セキュリティ・ファブリックに組み込むべき存在です。Okta PlatformはAIエージェントの可視性、ライフサイクル管理、ガバナンスを向上するための強力な基盤を提供します。

検出と発見

AIエージェントとその権限を適切に有効化し、リスクのある構成を特定して基盤をセキュアに保ちます。

 

プロビジョニングと登録

明確な所有権とリスク分類を基にAIエージェントのアイデンティティを管理し、一元的なガバナンスを実現します。

認可と保護

認証の標準化、最小権限の適用、ジャストインタイムアクセスを実現するツールで、エージェントの動作を制御します。

制御と監視

リスクの高い挙動や異常な動作を自動的に検知し対応することで、稼働中のエージェントに対する継続的なセキュリティを維持します。

Oktaのアイデンティティファブリックの機能をご覧ください

 セキュリティポリシーのリストと現在のステータスが表示されているOkta ISPMダッシュボードのスクリーンショット。

AIワークフォースに潜むリスクを可視化

Oktaを活用すれば、エンタープライズ全体のAIエージェントを発見し、リスクのある構成を事前に特定・修正できます。

 割り当てられた所有者と作成日を含む非人間アイデンティティの一覧が表示されているOkta Universal Directoryのスクリーンショット。

すべてのエージェントに所有権を付与

AIエージェントやサービスアカウントなどの非人間アイデンティティを作成・管理し、明確な所有権とリスク分類を割り当てる方法をご紹介します。

アプリケーション向けに構成されたきめ細かなAPIスコープと権限が表示されているOkta管理コンソールのスクリーンショット。

最小権限アクセスを適用

OktaがAIエージェントの認証プロセスを標準化してセキュリティを確保し、アクセス権限のレベルを正確に制御する仕組みをご覧ください。

有効なアクセス認証キャンペーンとその進捗状況を示しているOkta Identity Governanceダッシュボードのスクリーンショット。

AIツールへのユーザーアクセスを管理

初回承認や定期的な認定のアクセス要求を自動化し、継続的なコンプライアンスと明確な監査証跡を可能にします。

その他のリソースを見る

よくある質問(FAQ)

AIセキュリティとは、AIシステム自体を攻撃から保護し、AIモデルとそれが処理するデータの完全性、機密性、可用性を確保することです。データポイズニング、モデル回避攻撃、悪意のある目的でのAIの誤用などの脅威に対処します。

AIエージェントに与えられる役割が増えるにつれて、攻撃者にとって格好の標的となります。セキュリティ上の欠陥を悪用されると、機密データやシステムへの不正アクセスにつながり、データ漏洩、コンプライアンス違反、顧客信頼の喪失を招く恐れがあります。AIエージェントが自律的に動作できることから、セキュリティ上のエラーが急速に拡大する可能性があります。

主な脅威には、出力を操作するためのプロンプトインジェクション、不正アクセスを目的としたペルソナの切り替え、構成ミスや過剰権限のあるアイデンティティを悪用して機密データにアクセスする行為が含まれます。さらにAIエージェントは、認証情報をだまし取られたり、意図しない動作を強制されたりする可能性もあります。

主な課題は、従来のセキュリティ手法が人間のアイデンティティを前提として構築されており、自律型システムには対応していないことです。AIエージェントは寿命が短く、APIトークンや暗号化証明書などの非人間的な認証方法を使用するうえ、人間ユーザーのような明確な責任の所在を持ちません。その結果、組織が解消に苦労するガバナンスの空白、いわゆる「アイデンティティの盲点」が生じます。

最初のステップは、AIを利用する人間とAIエージェント自体の両方を管理する、包括的なアイデンティティファーストのアプローチを確立することです。 

ユーザーに対しては、SSOを通じてAIアプリケーションへのアクセスを保護し、アクセスを要求および承認するための明確な手順を整備することから始まります。 

エージェントに対しては、各エージェントを固有の非人間的アイデンティティとして扱い、エージェントが行うすべての自律的なアクションを最初からガバナンス、監視、保護できるようにすることを意味します。

Oktaは、アイデンティティ・セキュリティ・ファブリック内でAIエージェントを最優先の非人間アイデンティティ(NHI)として扱うことで、AIエージェントのセキュリティを確保します。Oktaは、実証済みのアイデンティティセキュリティ原則をAIエージェントにも拡張し、人間のアイデンティティと同様に、包括的な可視性、制御、ガバナンスを実現できる単一のコントロールプレーンに統合します。

プライバシーの役割は、AIによる不正なデータアクセスを防ぐために必要な可視性、制御、ガバナンスを提供することです。不正なエージェントは、ユーザーの知らないうちにデータにアクセスし、そのデータを共有する可能性があり、これによって重大な盲点が生じます。Oktaのソリューションは、これらのエージェントを管理するためのガードレールとプロトコルを提供し、認可されたデータのみにアクセスできるようにすることで、ユーザーと企業のプライバシーを保護します。

「ヒューマン・イン・ザ・ループ」、つまり人間の介在は監督のために不可欠であり、特にユーザーのアクセス要求とエージェントのアクション承認という2つの重要なシナリオで実装すべきです。

Oktaは、非同期認可などの機能を通じてこれを実現します。非同期認可では、自律型エージェントは独立して動作できますが、機密性の高いタスクを実行する前に明示的なユーザー承認が必要となり、効率と制御の両方を確保できます。

1 Okta、「AI at Work 2025:AIを活用した労働力のセキュリティ確保」(2025年8月12日)。

2 Alex Ralph、「Tricked into exposing data? Tech staff say bots are security risk」、The Times、2025年1月27日

本資料で言及されている製品、機能、性能、認証、許可、または証明のうち、現時点で一般提供されていないもの、まだ取得されていないもの、あるいは現在維持されていないものについては、予定通りに提供または取得されない場合や、まったく提供されない場合があります。製品ロードマップは、製品、機能、性能、認証、または証明を提供するという誓約、義務、または約束を示すものではなく、お客様はそれに基づいて購入の決定を行うべきではありません。