A IA está evoluindo rapidamente. Basta conferir as notícias e anúncios mais recentes: a OpenAI transformou o ChatGPT em uma plataforma para apps de bate-papo e agentes autônomos. A Anthropic lançou o Claude Sonnet 4.5, capaz de raciocinar em tarefas que duram várias horas. O Gemini do Google já consegue navegar na web como uma pessoa, enquanto o ecossistema Copilot da Microsoft se multiplicou em uma rede de agentes incorporados no Windows e no Office. 

Em conjunto, esses anúncios marcam uma virada (e é provável que estas informações já estejam desatualizadas quando você ler este texto). A IA está indo muito além de chatbots que respondem a perguntas. Está se tornando uma participante ativa na nossa forma de viver e trabalhar.

Ao contrário dos seres humanos, porém, a IA não encerra o expediente nem se esquece. Os agentes podem permanecer silenciosamente nos seus sistemas, mantendo o acesso muito tempo depois que a finalidade deles chegar ao fim. Sem governança, essas identidades operam de forma invisível — e, na área da segurança, isso pode gerar muitas vulnerabilidades.

Por que nossa infraestrutura de identidade tradicional não será suficiente para os agentes de IA

Os sistemas de identidade tradicionais foram criados para pessoas: funcionários, parceiros e prestadores de serviços. No entanto, a IA introduz novos desafios de identidade que não se encaixam nesse modelo.

desafioIdentidades humanasIdentidades de IA
VolumeForça de trabalho com tamanho estávelMilhares de agentes dinâmicos e de vida curta
VisibilidadeGerenciadas via RH ou diretóriosOcultas em APIs, pipelines e automações
ResponsabilidadeVinculadas às credenciais de uma pessoaEm geral, não há propriedade clara ou rastreabilidade

Com o aumento da adoção da IA, agentes não governados resultam em acessos não autorizados e lacunas de conformidade, com acessos que ninguém monitora, mas pelos quais todos são responsáveis.

Como administrar a identidade de um agente de IA?

Para gerenciar e administrar as identidades dos agentes de IA, você precisa de visibilidade, responsabilidade e controle. Com a estratégia de segurança de identidade correta em vigor, você tem tudo o que precisa. 

Ela garante que cada identidade de IA seja:

  • Conhecida — você pode identificar todos os agentes de IA que atuam no seu ambiente.
  • Pertencente a alguém — um ser humano é designado para cada agente e fica responsável pelo comportamento e acesso dele.
  • Com escopo definido — as permissões são limitadas a uma finalidade e período de tempo claros.
  • Auditável — cada ação é registrada e rastreável.
  • Revogável — o acesso termina quando a tarefa termina.

A identidade não se limita mais aos seres humanos, ela se estende à IA que age em nome deles.

Milhares de casos de uso, mas os fundamentos continuam iguais

Na Okta, conversamos todos os dias com clientes que estão em diferentes estágios de implementação de agentes de IA em suas organizações. Embora os casos de uso sejam distintos, é preciso começar com a identificação correta para garantir a segurança dos agentes:

caso de usoMetaExemplo
Agentes de suporte ao clienteEvitar a superexposição de PIIO agente é capaz de ler os dados dos clientes, mas não de exportá-los
Copilotos de desenvolvimentoLimitar o acesso ao sistemaO assistente de IA tem acesso de leitura de repositórios internos, porém, não grava em produção
Agentes de comprasManter a responsabilidadeA IA é capaz de criar uma solicitação de compra, mas precisa de aprovação humana
Modelos de pesquisaProteger dados sensíveisO modelo utiliza conjuntos de dados sintéticos, não dados reais de clientes

Proteja seus agentes de IA usando um modelo de maturidade

As organizações podem avaliar seu nível de prontidão com o Modelo de Maturidade de Segurança de Agentes de IA da Okta. Ele define quatro etapas para ajudar você a proteger e administrar identidades de IA em todos os níveis.

Não sabe por onde começar? Temos uma lista de verificação para ajudar. 

Etapa 1: inventariar as identidades de IA

Catalogue todos os agentes, modelos ou automações de IA que interagem com sistemas sensíveis.

Etapa 2: atribuir proprietários humanos

Cada identidade de IA deve estar associada a uma pessoa ou equipe responsável.

Etapa 3: aplicar o princípio do menor privilégio

Conceda acesso apenas ao que for necessário, utilizando tokens sob demanda sempre que possível.

Etapa 4: incluir a IA nas revisões de acesso

Trate as contas de IA como se fossem contas humanas, com revisão e certificação periódicas.

Etapa 5: automatizar o gerenciamento do ciclo de vida

Utilize fluxos de trabalho para provisionar, atualizar e desprovisionar identidades de IA automaticamente.

A governança é contínua. Quanto mais cedo você começar, mais fácil será manter o controle à medida que a IA se expande.

Precisa de ajuda para riscar esses itens da sua lista? Saiba mais sobre como a Okta ajuda você a visualizar, gerenciar e proteger os agentes de IA na sua organização.

 

Este material tem caráter meramente informativo e não constitui aconselhamento jurídico, comercial, de privacidade, de segurança ou de conformidade.

O conteúdo pode não refletir os desenvolvimentos mais recentes nas áreas de segurança, legislação e/ou privacidade. É de sua inteira responsabilidade obter aconselhamento de seu próprio consultor jurídico e/ou profissional. Não se baseie neste material como orientação legal.

A Okta não oferece nenhuma garantia ou declaração em relação a este conteúdo nem se responsabiliza por perdas ou danos resultantes da implementação destas recomendações. Informações sobre as garantias contratuais da Okta para seus clientes podem ser encontradas em okta.com/agreements.

Continue sua jornada de identidade