Todo líder empresarial está perguntando: Como podemos aproveitar a IA para obter uma vantagem competitiva? Os líderes de segurança estão fazendo uma pergunta diferente: Como adotamos a IA sem criar milhares de riscos de segurança novos, autônomos e invisíveis?
Do nosso ponto de vista, ajudando a proteger mais de 20.000 organizações globais, vemos esse desafio se desenrolar em tempo real. O aumento da IA generativa e agentic está impulsionando uma explosão de identidades não humanas (NHIs). Esses agentes de IA podem operar na velocidade da máquina, acessar dados confidenciais, chamar APIs críticas e tomar decisões em nome dos usuários.
Isso cria uma crise de identidade fundamental. Os sistemas IAM tradicionais, projetados para acesso previsível baseado em humanos, não estão equipados para essa realidade. Sem uma abordagem moderna, as empresas enfrentam um ponto cego: quais agentes têm acesso ao quê? Suas permissões são apropriadas? Como você impede um agente comprometido antes que ele cause danos?
Garantir o futuro da IA começa com a identidade. Este artigo explora como os padrões e estruturas de IA emergentes, como MCP, A2A e RAG, habilitam novas funcionalidades e também introduzem desafios de segurança significativos — e por que resolvê-los requer uma abordagem prioritária para a identidade.
Quem está adotando a IA? E por que estão adotando a IA?
Em todos os setores, as organizações estão buscando a adoção de IA de três maneiras principais:
IA para a força de trabalho: Muitas empresas estão implementando tecnologias de IA para capacitar os funcionários. O sucesso depende da aquisição de um fornecedor confiável e do gerenciamento da crescente rede de acesso que as plataformas de IA obtêm dentro da empresa.
IA para parcerias B2B: algumas organizações estão incorporando IA em serviços voltados para parceiros ou fornecedores. A prioridade deles é o tempo ráido para obter valor, combinado com a exposição segura de recursos de IA a terceiros.
Construtores de produtos nativos de IA: essas empresas estão desenvolvendo os produtos com tecnologia de IA que outras estão avaliando. Eles se concentram na inovação e contam com estruturas de segurança fortes para ajudar a garantir a confiança em ambientes de produção.
Em todos os três grupos, a necessidade é consistente: segurança que se adapta à adoção da IA.
Padrões em evolução no ecossistema de IA
O ecossistema de IA estão avançando rapidamente em direção à padronização. Muitos protocolos estão sendo propostos, mas três se destacam por seu impacto empresarial em curto prazo: Model Context Protocol (MCP), comunicação agente a agente (A2A) e geração aumentada de recuperação (RAG).
MCP: Um protocolo orientado ao contexto
O MCP, desenvolvido pela Anthropic, atua como um tradutor universal entre modelos de IA e sistemas externos. Em vez de exigir que cada agente se adapte às peculiaridades de cada API, o MCP fornece um protocolo consistente para acessar ferramentas e recursos.
Por exemplo, um CEO pode pedir a um assistente de IA para analisar dados de vendas em um CRM, sistema de estoque e plataforma de contabilidade. Com o MCP, o assistente não precisa de integrações personalizadas; ele pode interagir com cada sistema por meio de um padrão comum. O MCP transforma o agente de IA em um cinto de ferramentas universal.
As implicações de segurança são significativas. O MCP facilita o acesso e o torna mais consistente, mas também aumenta os riscos de autenticação e autorização. O OAuth 2.1 faz parte da especificação, mas não aborda totalmente a natureza dinâmica e orientada a tarefas da integração de agentes e dos riscos de representação.
A2A: Um protocolo entre agentes
Se o MCP equipa agentes individuais, o A2A permite que eles trabalhem juntos. A2A é uma estrutura emergente do Google Cloud que propõe "Agent Cards" padronizados para descrever as capacidades do agente. Esses cartões permitem que os agentes dividam o trabalho, coordenem tarefas e colaborem em metas complexas. O potencial é claro. Imagine agentes de IA representando fornecedores, transportadores e varejistas coordenando em tempo real para resolver uma interrupção na cadeia de suprimentos.
Os desafios de segurança também são claros. Sem controles de identidade fortes, o A2A pode se tornar um canal para falsificação, interceptação ou colaboração maliciosa. A modelagem de ameaças com a estrutura MAESTRO da Cloud Security Alliance já identificou cenários como agentes se passando por entidades confiáveis ou servidores se disfarçando de participantes legítimos.
RAG: Não é um protocolo, mas uma estrutura
Os modelos de IA generativa são poderosos, mas seu conhecimento é limitado aos dados de treinamento. A Geração Aumentada por Recuperação (RAG) os aprimora, recuperando informações de fontes ativas antes de gerar uma resposta. Isso ajuda a garantir que as saídas sejam precisas, atuais e fundamentadas em dados corporativos.
Considere um CFO perguntando sobre o desempenho do orçamento do 4º trimestre. Um modelo sem RAG pode fornecer uma resposta desatualizada ou fabricada. Com o RAG, o modelo consulta primeiro os sistemas reais da empresa e, em seguida, responde com números verificados.
O RAG é fundamental para a confiança empresarial, mas também cria desafios em torno da autorização. Os pipelines de RAG geralmente envolvem vastos conjuntos de dados, e decidir qual porção desses conjuntos de dados um agente deve acessar requer controles precisos e em tempo real.
Reunindo tudo: padrões como catalisadores e multiplicadores de risco
MCP, A2A e RAG expandem cada um os recursos dos agentes de IA. Juntos, eles formam a espinha dorsal do ecossistema de IA agentic.
Sua adoção, no entanto, também amplifica o risco. Os NHIss estão se multiplicando em um ritmo que os sistemas IAM atuais não conseguem gerenciar. Os agentes agem de forma autônoma, imprevisível e em escala. Sem a identidade no centro, as empresas enfrentam exposições de segurança que podem prejudicar os benefícios da IA.
Como os padrões criam novas considerações de segurança
As organizações lutam há muito tempo com identidades de máquina, como contas de serviço e chaves de API. Estes muitas vezes se tornam superprivilegiados ou órfãos, criando pontos cegos de governança.
A IA agentic aumenta o problema. Em vez de gerenciar centenas de contas, as empresas em breve gerenciarão milhares de agentes, cada um com suas próprias permissões dinâmicas. Isso representa uma mudança em tipo, não apenas em escala. As estruturas de IAM atuais não foram projetadas para este nível de complexidade.
Lacunas introduzidas por padrões
O MCP cria novos desafios de gerenciamento de identidade e acesso para agentes. O MCP melhora a interoperabilidade, oferecendo aos agentes uma maneira padronizada de acessar ferramentas e sistemas corporativos. Ao mesmo tempo, ele introduz novos desafios de identidade. As estruturas tradicionais de IAM têm dificuldade em reconhecer, autenticar e autorizar agentes de IA cujos padrões de acesso são dinâmicos e orientados a tarefas.
Um agente que pode usar o MCP para consultar vários sistemas deve primeiro ser integrado com segurança e verificado continuamente. Sem essas salvaguardas, a mesma eficiência que torna o MCP poderoso também aumenta o risco de acesso não autorizado, comportamento inadequado ou representação por agentes maliciosos.
A2A introduz novos riscos para confiança entre agentes e comunicação segura. A promessa de A2A é uma colaboração perfeita entre agentes autônomos. A realidade é que, sem bases de identidade fortes, cada nova conexão se torna uma vulnerabilidade potencial.
À medida que os agentes trocam dados confidenciais e coordenam tarefas, os invasores podem tentar se passar por agentes confiáveis, interceptar mensagens ou manipular interações. A modelagem de ameaças A2A já destacou riscos como servidores maliciosos se passando por empresas legítimas, credenciais de agente roubadas e escalada não autorizada de confiança. Estabelecer comunicação segura e identidade verificável entre diversos agentes é essencial para que o A2A passe do conceito para a adoção empresarial.
O RAG cria novos padrões de acesso que aumentam a precisão dos dados e os riscos de divulgação de informações. O RAG reduz as alucinações, fundamentando as saídas em dados empresariais, mas, ao fazê-lo, introduz requisitos de autorização complexos. Um sistema de IA equipado com RAG pode precisar consultar grandes armazenamentos de dados.
Decidir quais partes dessas lojas estão disponíveis para quais agentes, em quais contextos, requer uma autorização muito mais granular do que a maioria das empresas aplica hoje. Sem esses controles, os agentes podem expor informações confidenciais ou gerar resultados que violem os padrões de conformidade. À medida que as empresas escalam os pipelines RAG, a capacidade de aplicar decisões de acesso refinadas e em tempo real se torna um requisito de segurança, não um recurso.
Desafios mais amplos para empresas
À medida que os agentes de IA assumem ações mais autônomas, as empresas precisam saber exatamente quem — ou o quê — iniciou cada etapa. Foi um humano fazendo uma solicitação direta ou um agente agindo em nome desse usuário horas depois?
Sem uma atribuição clara, as investigações forenses são interrompidas e o relatório de conformidade se torna não confiável. Essa falta de responsabilidade também enfraquece a confiança, pois as organizações lutam para demonstrar controle sobre a tomada de decisões autônomas.
Os sistemas de IA são particularmente vulneráveis a técnicas como envenenamento de dados, inversão de modelo e injeção de prompt. Esses ataques são projetados para manipular o comportamento do agente ou extrair informações confidenciais.
Em um ecossistema agentic, onde os sistemas se comunicam e se baseiam nas saídas uns dos outros, um único agente comprometido pode espalhar o risco por muitos domínios. A proteção contra táticas adversárias requer segurança de endpoint e monitoramento contínuo do comportamento do agente baseado em identidade.
Os agentes de IA geralmente operam em tarefas de longa duração. Eles podem solicitar aprovação uma vez e, em seguida, continuar executando ações muito depois que o humano se moveu. Isso cria riscos como fadiga de aprovação, onde os usuários clicam em prompts repetidos sem escrutínio, ou perda de contexto, onde se torna obscuro o que exatamente o agente está autorizado a fazer. Sem um mecanismo para reintroduzir os humanos no circuito nos momentos certos, as empresas correm o risco de perder a responsabilidade e se expor a ações não autorizadas.
A estrutura OAuth há muito tempo permite que os usuários conectem aplicativos concedendo acesso entre plataformas. Em contextos de consumidor, essa suposição — de que o usuário final possui e controla a conexão — faz sentido. Na empresa, não.
As empresas precisam autorizar essas conexões por política, não por critério individual. À medida que a IA aumenta a escala, o número de conexões entre aplicativos e de agente para aplicativo aumentará drasticamente, agravando um problema que já existe hoje. Sem governança centralizada, as equipes de segurança ficam alheias à crescente malha de permissões que os agentes criam.
Como a Okta protege a IA agentic
A identidade deve ser a base da segurança da IA. A plataforma da Okta rege tanto humanos quanto NHIs, abordando as lacunas introduzidas por MCP, A2A e RAG.
A estrutura abrangente de segurança de IA da Okta
A Okta pode descobrir, integrar, governar e monitorar agentes de IA da mesma forma que gerencia identidades humanas. As políticas ajudam a garantir visibilidade, responsabilidade e alinhamento com os padrões corporativos.
Segurança antes, durante e depois da autenticação
- Antes da autenticação: As empresas obtêm insights sobre o acesso do agente e aplicam a integração orientada por políticas.
- Durante a autenticação: As decisões de acesso são contextuais. Um agente pode ter direitos, mas as políticas determinam se ele pode agir sobre eles em um determinado cenário.
- Após a autenticação: O monitoramento contínuo permite a conformidade contínua. A Okta pode revogar tokens, notificar as equipes do SOC ou automatizar a correção se forem detectados riscos.
Funcionalidades Okta para segurança de IA
Acesso entre aplicativos (XAA): Uma extensão do OAuth adaptada para IA agentic, XAA centraliza a supervisão das conexões de aplicativo para aplicativo e orientadas por agente, permitindo que as empresas apliquem políticas sem depender de aprovações repetitivas do usuário.
Prevenção do compartilhamento de autorização: por meio do suporte para OAuth2 Demonstrating Proof-of-Possession (DPoP) e OAuth 2.0 Mutual-TLS Client Authentication (mTLS), a Okta ajuda a garantir que os tokens não possam ser roubados ou reutilizados. Somente o agente que recebe um token pode usá-lo.
Okta token vault (corretor MCP): os desenvolvedores que criam aplicativos de IA geralmente precisam se conectar a muitos serviços externos. Token Vault armazena tokens de usuário com segurança e atua como um corretor MCP, simplificando a integração em escala.
Acesso A2A seguro. Com a troca de tokens, a Okta oferece suporte a cadeias de autoriza\u00e7\u00e3o delegadas que come\u00e7am com uma identidade humana e se estendem por v\u00e1rios agentes, mantendo a precis\u00e3o e a auditabilidade.
Validação assíncrona. Usando o fluxo de Autenticação de Backchannel Iniciada pelo Cliente do OAuth2 (CIBA), o Okta permite aprovações humanas seguras para processos de agente de longa duração, equilibrando responsabilidade com eficiência.
Autorização granular para RAG. A solução FGA da Okta aplica autorização em tempo real no nível da consulta, ajudando a garantir que os agentes de IA acessem apenas os dados que os usuários têm o direito de visualizar.
Por que a Okta lidera em segurança de IA
A Okta já está fornecendo soluções para desafios de identidade de IA.
- Vantagem de pioneirismo: O gerenciamento de identidade de agente de IA está disponível agora, não em um roadmap.
- Enterprise scale: Contado com a confiança de mais de 20.000 clientes que gerenciam bilhões de logins mensais.
- Liderança em padrões: Participação ativa em padrões de segurança de IA emergentes como MCP e A2A.
- Plataforma abrangente: Identidade, governança e autorização que abordam os desafios de segurança da IA atuais e futuros
Por meio de novas iniciativas como Auth0 para Agentes de IA e XAA, a Okta está estendendo sua estrutura de identidade para atender aos requisitos exclusivos dos agentes de IA e suas interações.
Próximos passos para líderes empresariais
Os padrões de IA estão evoluindo rapidamente e as lacunas de segurança estão se expandindo no mesmo ritmo. As empresas que agirem agora estabelecerão as bases para a adoção segura de IA em escala.
Quatro ações podem ajudar as organizações a começar.
- Avalie a postura atual de segurança de IA: Avalie os recursos de gerenciamento de identidade existentes em relação aos requisitos do agente de IA.
- Planeje para escalar: Projete arquiteturas de identidade que possam lidar com milhões de agentes de IA em escala
- Parceria com a Okta: Aproveite a estrutura abrangente de segurança de IA da Okta para construir uma infraestrutura de IA segura e escalável.
- Comece pequeno e depois aumente a escala: Comece com as implementações de agentes de IA piloto usando o Okta como base e, em seguida, aumente a escala rapidamente.
O futuro da IA pertencerá às empresas que inovarem com confiança. A Okta está pronta para ajudar a garantir esse futuro.
Pronto para proteger sua infraestrutura de IA? Entre em contato com a Okta para saber como nossa estrutura abrangente de segurança de IA pode proteger os investimentos de IA da sua organização e permitir uma inovação segura em escala.