Proteja e controle seus agentes de IA

Os agentes de IA são sua próxima ameaça interna. A Okta dá a você o poder de ver, gerenciar e controlar esses agentes.

A ascensão dos agentes exige uma nova abordagem de segurança

A adoção da IA não para de crescer, mas a segurança e a governança estão atrasadas, criando riscos significativos e não gerenciados.

91%

das organizações já utilizam agentes de IA1

80%

se depararam com comportamento não intencional dos agentes2

80%

reportam exposição de credenciais via agentes2

23%

não têm governança em vigor2

EM BREVE

Proteja o ciclo de vida do seu agente de IA

Os agentes de IA pertencem à sua estrutura de segurança de identidade. A Okta Platform oferece uma base sólida para melhor visibilidade, gerenciamento do ciclo de vida e governança de agentes de IA.

Detectar e descobrir

Otimize o gerenciamento dos agentes de IA e as permissões, além de identificar configurações de risco para proteger sua base.

 

Provisionar e registrar

Gerencie as identidades dos agentes de IA com classificações de propriedade e risco claras, para permitir uma governança centralizada.

Autorizar e proteger

Use ferramentas para padronizar a autenticação dos agentes de IA, tendo controle sobre o que eles podem fazer, e imponha acesso com privilégios mínimos e acesso just-in-time.

Governar e monitorar

Ajude a manter a segurança contínua dos agentes ativos detectando e respondendo automaticamente a comportamentos anômalos de alto risco.

Veja nossa estrutura de identidade em ação

 Captura de tela do painel do Okta ISPM exibindo uma lista de políticas de segurança com seus status atuais.

Descubra os riscos ocultos na sua força de trabalho de IA

Saiba como a Okta pode ajudar você a descobrir agentes de IA na sua empresa para identificar e corrigir configurações arriscadas proativamente.

 Captura de tela do Okta Universal Directory mostrando uma lista de identidades não humanas (NHIs) com proprietários atribuídos e datas de criação.

Atribua propriedade a cada agente

Descubra como criar e gerenciar identidades não humanas (NHIs), incluindo agentes de IA e contas de serviço, e atribua propriedade e classificações de risco claras.

Captura de tela de um console de administração da Okta exibindo escopos granulares de API e permissões configuradas para um aplicativo.

Imponha o acesso com o menor privilégio

Veja como a Okta padroniza e ajuda você a proteger o processo de autenticação para agentes de IA, controlando de forma precisa o nível de acesso permitido aos agentes.

Captura de tela do painel do Okta Identity Governance mostrando campanhas de certificação de acesso ativas e seu progresso.

Governe o acesso dos usuários às ferramentas de IA

Implemente solicitações de acesso automatizadas para aprovações iniciais e certificações periódicas, permitindo conformidade contínua e uma trilha de auditoria clara.

Perguntas frequentes

A segurança de IA envolve proteger os próprios sistemas de IA contra ataques, garantindo a integridade, a confidencialidade e a disponibilidade dos modelos de IA e dos dados que eles processam. Ela aborda ameaças como envenenamento de dados, evasão de modelos e uso indevido da IA para fins mal-intencionados.

À medida que recebem mais responsabilidades, os agentes da IA se tornam alvos atraentes para invasores. Falhas de segurança podem ser exploradas para obter acesso não autorizado a dados e sistemas sensíveis, resultando em violações de dados, violações de conformidade e perda da confiança do cliente. Como os agentes de IA conseguem operar de forma autônoma, qualquer falha de segurança pode se expandir rapidamente.

As principais ameaças incluem injeções de prompts para manipular saídas, troca de identidade para obter acesso não autorizado e exploração de identidades mal configuradas ou com excesso de privilégios para acessar dados sensíveis. Os agentes de IA também podem ser ludibriados para revelarem credenciais de acesso ou realizarem ações não intencionais.

O principal desafio é que as abordagens tradicionais de segurança foram criadas para identidades humanas, não para sistemas autônomos. Os agentes de IA têm vida útil curta, usam métodos de autenticação não humanos, como tokens de API e certificados criptográficos, e não têm a responsabilidade clara de um usuário humano. Isso cria uma falha de governança ou “ponto cego de identidade” que as organizações têm dificuldade de resolver.

O primeiro passo é estabelecer uma abordagem abrangente que priorize a identidade e que governe tanto os seres humanos que usam a IA quanto os próprios agentes de IA. 

Para os usuários, isso começa com a proteção do acesso aos aplicativos de IA por meio de SSO e a criação de procedimentos claros para solicitar e aprovar o acesso. 

Para os agentes, isso significa tratar cada um como uma identidade não humana (NHI) distinta, garantindo que cada ação autônoma realizada possa ser governada, monitorada e protegida desde o início.

A Okta ajuda você a proteger os agentes de IA tratando-os como identidades não humanas (NHIs) de primeira classe dentro da nossa estrutura de segurança de identidade. Estendemos nossos princípios comprovados de segurança de identidade aos agentes de IA, reunindo-os em um único plano de controle para visibilidade, controle e governança abrangentes, tal como fazemos com identidades humanas.

O papel da privacidade é fornecer a visibilidade, o controle e a governança necessários para impedir o acesso não autorizado a dados pela IA. Um agente não autorizado pode acessar e compartilhar dados sem que você perceba, criando um ponto cego importante. A solução da Okta fornece as proteções e os protocolos para governar esses agentes, garantindo que tenham acesso apenas aos dados aos quais estão autorizados. Desse modo, é possível proteger a privacidade do usuário e da empresa.

Um processo “human-in-the-loop” é essencial para a supervisão e deve ser implementado em dois cenários principais: solicitações de acesso do usuário e aprovações de ações do agente.

A Okta permite isso por meio de recursos como a autorização assíncrona, que permite que um agente autônomo opere de forma independente, mas exige aprovação explícita do usuário antes de realizar tarefas sensíveis, garantindo eficiência e controle.

1 Okta, AI at Work 2025: Securing the AI-powered workforce (12 de agosto de 2025).

2 Alex Ralph, “Tricked into exposing data? Tech staff say bots are security risk”, The Times, 27 de janeiro de 2025

Quaisquer produtos, recursos, funcionalidades, certificações, autorizações ou atestados mencionados nesta apresentação que não estejam atualmente disponíveis ao público em geral, ou que ainda não tenham sido obtidos nem tenham manutenção, podem não ser entregues ou obtidos no prazo ou mesmo não serem entregues ou obtidos de forma alguma. Os roteiros de produtos não representam um compromisso, uma obrigação nem promessa de fornecer qualquer produto, recurso, funcionalidade, certificação ou atestado. Tais roteiros não devem servir de base para você tomar suas decisões de compra.