Todo líder empresarial se pregunta: ¿Cómo podemos aprovechar la IA para obtener una ventaja competitiva? Los líderes de seguridad se hacen una pregunta diferente: ¿Cómo adoptamos la IA sin crear miles de riesgos de seguridad nuevos, autónomos e invisibles?
Desde nuestro punto de vista, ayudando a asegurar a más de 20,000 organizaciones globales, vemos este desafío desarrollándose en tiempo real. El auge de la IA generativa y agentic está impulsando una explosión de identidades no humanas (NHI). Estos agentes de IA pueden operar a la velocidad de la máquina, acceder a datos confidenciales, llamar a APIs críticas y tomar decisiones en nombre de los usuarios.
Esto crea una crisis de identidad fundamental. Los sistemas tradicionales de IAM, diseñados para un acceso predecible impulsado por humanos, no están equipados para esta realidad. Sin un enfoque moderno, las empresas se enfrentan a un punto ciego: ¿Qué agentes tienen acceso a qué? ¿Son sus permisos apropiados? ¿Cómo detienes a un agente comprometido antes de que cause daños?
Asegurar el futuro de la IA comienza con la identidad. Este artículo explora cómo los estándares y marcos de IA emergentes, como MCP, A2A y RAG, permiten nuevas funcionalidades y también introducen importantes desafíos de seguridad, y por qué resolverlos requiere un enfoque de identidad primero.
¿Quién está adoptando la IA? ¿Y por qué la están adoptando?
En todas las industrias, las organizaciones están buscando la adopción de la IA en tres formas principales:
IA para la fuerza laboral: Muchas empresas están implementando tecnologías de IA para empoderar a los empleados. El éxito depende de adquirir un proveedor confiable y gestionar la creciente red de acceso que las plataformas de IA obtienen dentro de la empresa.
IA para asociaciones B2B: Algunas organizaciones están integrando la IA en servicios orientados a socios o proveedores. Su prioridad es un rápido tiempo de rentabilidad, combinado con una exposición segura de las capacidades de la IA a terceros.
Constructores de productos nativos de IA: Estas compañías están desarrollando los productos impulsados por IA que otros están evaluando. Se enfocan en la innovación y confían en marcos de seguridad sólidos para ayudar a asegurar la confianza en los entornos de producción.
En los tres grupos, la necesidad es consistente: seguridad que se escala con la adopción de la IA.
Evolución de los estándares en el ecosistema de la IA
El ecosistema de la IA avanza rápidamente hacia la estandarización. Se están proponiendo muchos protocolos, pero tres destacan por su impacto empresarial a corto plazo: Protocolo de contexto de modelo (MCP), comunicación de agente a agente (A2A) y generación aumentada de recuperación (RAG).
MCP: Un protocolo orientado al contexto
MCP, desarrollado por Anthropic, actúa como un traductor universal entre los modelos de IA y los sistemas externos. En lugar de requerir que cada agente se adapte a las peculiaridades de cada API, MCP proporciona un protocolo consistente para acceder a herramientas y recursos.
Por ejemplo, un CEO podría pedirle a un asistente de IA que analice los datos de ventas en un CRM, un sistema de inventario y una plataforma de contabilidad. Con MCP, el asistente no necesita integraciones personalizadas; puede interactuar con cada sistema a través de un estándar común. MCP convierte al agente de IA en un cinturón de herramientas universal.
Las implicaciones de seguridad son significativas. MCP facilita el acceso y lo hace más consistente, pero también aumenta los riesgos de la autenticación y la autorización. OAuth 2.1 es parte de la especificación, pero no aborda por completo la naturaleza dinámica e impulsada por tareas de la incorporación de agentes y los riesgos de suplantación de identidad.
A2A: Un protocolo entre agentes
Si MCP equipa a los agentes individuales, A2A les permite trabajar juntos. A2A es un marco emergente de Google Cloud que propone "Tarjetas de Agente" estandarizadas para describir las capacidades del agente. Estas tarjetas permiten a los agentes dividir el trabajo, coordinar tareas y colaborar en objetivos complejos. El potencial es claro. Imagine agentes de IA que representan a proveedores, transportistas y minoristas coordinándose en tiempo real para resolver una interrupción de la cadena de suministro.
Los desafíos de seguridad también son claros. Sin controles de identidad sólidos, A2A puede convertirse en un canal para la suplantación de identidad, la intercepción o la colaboración maliciosa. El modelado de amenazas con el marco MAESTRO de Cloud Security Alliance ya ha identificado escenarios como agentes que se hacen pasar por entidades confiables o servidores que se hacen pasar por participantes legítimos.
RAG: No es un protocolo, sino un marco
Los modelos de IA generativa son potentes, pero su conocimiento se limita a los datos de entrenamiento. La generación aumentada de recuperación (RAG) los mejora recuperando información de fuentes en vivo antes de generar una respuesta. Esto ayuda a garantizar que las salidas sean precisas, actuales y estén basadas en datos empresariales.
Consideremos un CFO que pregunta sobre el rendimiento del presupuesto del Q4. Un modelo sin RAG podría proporcionar una respuesta obsoleta o inventada. Con RAG, el modelo consulta primero los sistemas reales de la empresa y luego responde con números verificados.
RAG es fundamental para la confianza empresarial, pero también crea desafíos en torno a la autorización. Las canalizaciones RAG a menudo involucran vastos conjuntos de datos, y decidir a qué parte de esos conjuntos de datos debe acceder un agente requiere controles granulares en tiempo real.
Reuniéndolo todo: Los estándares como catalizadores y multiplicadores de riesgo
MCP, A2A y RAG expanden cada uno las capacidades de los agentes de IA. Juntos, forman la columna vertebral del ecosistema de IA agentic.
Su adopción, sin embargo, también amplifica el riesgo. Los NHIss se están multiplicando a un ritmo que los sistemas IAM actuales no pueden gestionar. Los agentes actúan de forma autónoma, impredecible y a escala. Sin la identidad en el centro, las empresas se enfrentan a exposiciones de seguridad que podrían socavar los beneficios de la IA.
Cómo los estándares crean nuevas consideraciones de seguridad
Las organizaciones han luchado durante mucho tiempo con las identidades de las máquinas, como las cuentas de servicio y las claves de API. Estos a menudo se vuelven demasiado privilegiados o huérfanos, creando puntos ciegos de gobernanza.
La IA agentic amplifica el problema. En lugar de gestionar cientos de cuentas, las empresas pronto gestionarán miles de agentes, cada uno con sus propios permisos dinámicos. Esto representa un cambio de tipo, no solo de escala. Los marcos de IAM actuales no fueron diseñados para este nivel de complejidad.
Brechas introducidas por los estándares
MCP crea nuevos desafíos de administración de acceso e identidad para los agentes. MCP mejora la interoperabilidad al brindarles a los agentes una forma estandarizada de acceder a las herramientas y sistemas empresariales. Al mismo tiempo, introduce nuevos desafíos de identidad. Los marcos de IAM tradicionales luchan por reconocer, autenticar y autorizar a los agentes de IA cuyos patrones de acceso son dinámicos y están impulsados por tareas.
Un agente que puede usar MCP para consultar varios sistemas primero debe incorporarse de forma segura y verificarse continuamente. Sin esas salvaguardias, la misma eficiencia que hace que MCP sea poderoso también aumenta el riesgo de acceso no autorizado, comportamiento fraudulento o suplantación de identidad por agentes maliciosos.
A2A introduce nuevos riesgos para la confianza entre agentes y la comunicación segura. La promesa de A2A es la colaboración perfecta entre agentes autónomos. La realidad es que sin bases sólidas de identidad, cada nueva conexión se convierte en una vulnerabilidad potencial.
A medida que los agentes intercambian datos confidenciales y coordinan tareas, los atacantes pueden intentar hacerse pasar por agentes de confianza, interceptar mensajes o manipular interacciones. El modelado de amenazas A2A ya ha destacado riesgos como servidores maliciosos que se hacen pasar por compañías legítimas, credenciales de agentes robadas y escalada no autorizada de la confianza. Establecer una comunicación segura y una identidad verificable entre diversos agentes es esencial si A2A va a pasar del concepto a la adopción empresarial.
RAG crea nuevos patrones de acceso que aumentan la precisión de los datos y los riesgos de divulgación de información. RAG reduce las alucinaciones al basar los resultados en los datos de la empresa, pero al hacerlo introduce requisitos de autorización complejos. Un sistema de IA equipado con RAG puede necesitar consultar a través de almacenes de datos masivos.
Decidir qué porciones de esas tiendas están disponibles para qué agentes, en qué contextos, requiere una autorización que es mucho más granular de lo que la mayoría de las empresas aplican hoy en día. Sin estos controles, los agentes podrían exponer información confidencial o generar resultados que violen los estándares de cumplimiento. A medida que las empresas escalan las canalizaciones RAG, la capacidad de hacer cumplir las decisiones de acceso granulares y en tiempo real se convierte en un requisito de seguridad, no en una característica.
Desafíos más amplios para las empresas
A medida que los agentes de IA asumen más acciones autónomas, las empresas necesitan saber exactamente quién, o qué, inició cada paso. ¿Fue un humano haciendo una solicitud directa, o un agente actuando en nombre de ese usuario horas después?
Sin una atribución clara, las investigaciones forenses se estancan y la generación de informes de cumplimiento se vuelve poco confiable. Esta falta de responsabilidad también debilita la confianza, ya que las organizaciones luchan por demostrar el control sobre la toma de decisiones autónoma.
Los sistemas de IA son particularmente vulnerables a técnicas como el envenenamiento de datos, la inversión de modelos y la inyección de instrucciones. Estos ataques están diseñados para manipular el comportamiento del agente o extraer información confidencial.
En un ecosistema agentic, donde los sistemas se comunican y se basan en las salidas de los demás, un solo agente comprometido puede propagar el riesgo a través de muchos dominios. La protección contra tácticas adversarias requiere seguridad de punto final y monitoreo continuo del comportamiento del agente basado en la identidad.
Los agentes de IA a menudo operan en tareas de larga duración. Pueden solicitar aprobación una vez y luego continuar ejecutando acciones mucho después de que el humano haya seguido adelante. Esto crea riesgos como la fatiga de aprobación, donde los usuarios hacen clic en repetidas indicaciones sin analizarlas, o la pérdida de contexto, donde no queda claro qué está autorizado a hacer exactamente el agente. Sin un mecanismo para reintroducir a los humanos en el circuito en los momentos adecuados, las empresas corren el riesgo de perder la responsabilidad y exponerse a acciones no autorizadas.
El marco de OAuth ha permitido durante mucho tiempo a los usuarios conectar aplicaciones otorgando acceso multiplataforma. En contextos de consumo, esta suposición, de que el usuario final posee y controla la conexión, tiene sentido. En la empresa, no.
Las empresas necesitan autorizar estas conexiones por política, no por discreción individual. A medida que la IA escala, el número de conexiones entre aplicaciones y de agente a aplicación aumentará drásticamente, lo que agravará un problema que ya existe hoy en día. Sin una gobernanza centralizada, los equipos de seguridad no se dan cuenta de la creciente red de permisos que crean los agentes.
Cómo Okta asegura la IA agentic
La identidad debe ser la base de la seguridad de la IA. La plataforma de Okta gobierna tanto a humanos como a NHI, abordando las brechas introducidas por MCP, A2A y RAG.
El marco integral de seguridad de la IA de Okta
Okta puede descubrir, incorporar, gobernar y monitorear agentes de IA de la misma manera que gestiona las identidades humanas. Las políticas ayudan a garantizar la visibilidad, la responsabilidad y la alineación con los estándares empresariales.
Seguridad antes, durante y después de la autenticación
- Antes de la autenticación: Las empresas obtienen información sobre el acceso de los agentes y aplican la incorporación basada en políticas.
- Durante la autenticación: Las decisiones de acceso son contextuales. Un agente puede tener derechos, pero las políticas determinan si puede actuar sobre ellos en un escenario dado.
- Después de la autenticación: La supervisión continua permite el cumplimiento continuo. Okta puede revocar tokens, notificar a los equipos SOC o automatizar la corrección si se detectan riesgos.
Funciones de Okta para la seguridad de la IA
Acceso entre aplicaciones (XAA): Una extensión de OAuth adaptada para la IA de agentes, XAA centraliza la supervisión de las conexiones de aplicación a aplicación y basadas en agentes, lo que permite a las empresas aplicar políticas sin depender de aprobaciones repetitivas del usuario.
Prevención del uso compartido de la autorización: a través de la compatibilidad con OAuth2 que demuestra la prueba de posesión (DPoP) y Autenticación de cliente TLS mutua OAuth 2.0 (mTLS), Okta ayuda a garantizar que los tokens no puedan ser robados o reutilizados. Solo el agente que recibe un token puede usarlo.
Okta token vault (agente de MCP): Los desarrolladores que crean aplicaciones de IA a menudo necesitan conectarse a muchos servicios externos. Token Vault almacena los tokens de usuario de forma segura y actúa como un agente de MCP, lo que simplifica la integración a escala.
Acceso seguro A2A. Con intercambio de tokens, Okta admite cadenas de autorización delegadas que comienzan con una identidad humana y se extienden a través de múltiples agentes, manteniendo la precisión y la auditabilidad.
Validación asíncrona. Usando el flujo de autenticación de backchannel iniciado por el cliente de OAuth2 (CIBA), Okta permite aprobaciones humanas seguras para procesos de agente de larga duración, equilibrando la responsabilidad con la eficiencia.
Autorización detallada para RAG. La solución FGA de Okta aplica la autorización en tiempo real a nivel de consulta, lo que ayuda a garantizar que los agentes de IA accedan solo a los datos que los usuarios tienen derecho a ver.
Por qué Okta lidera en seguridad de IA
Okta ya está ofreciendo soluciones para los desafíos de la identidad de la IA.
- Ventaja de ser el primero: la gestión de identidades de agentes de IA ya está disponible, no en una hoja de ruta.
- Escala empresarial: Con la confianza de más de 20,000 clientes que gestionan miles de millones de inicios de sesión mensuales.
- Liderazgo en estándares: Participación activa en estándares emergentes de seguridad de la IA como MCP y A2A.
- Plataforma integral: Identidad, gobernanza y autorización que abordan los desafíos de seguridad de la IA actuales y futuros
A través de nuevas iniciativas como Auth0 for AI Agents y XAA, Okta está extendiendo su marco de identidad para satisfacer los requisitos únicos de los agentes de IA y sus interacciones.
Próximos pasos para los líderes empresariales
Los estándares de la IA están evolucionando rápidamente y las brechas de seguridad se están expandiendo al mismo ritmo. Las empresas que actúen ahora establecerán las bases para una adopción segura de la IA a escala.
Cuatro acciones pueden ayudar a las organizaciones a comenzar.
- Evaluar la postura actual de seguridad de la IA: Evaluar las capacidades existentes de administración de identidades con respecto a los requisitos del agente de IA.
- Planifique la escala: Diseñe arquitecturas de identidad que puedan manejar millones de agentes de IA a escala
- Asóciese con Okta: Aproveche el marco integral de seguridad de IA de Okta para construir una infraestructura de IA segura y escalable.
- Comience poco a poco y luego amplíe: comience con implementaciones piloto de agentes de IA utilizando Okta como base y luego amplíe rápidamente.
El futuro de la IA pertenecerá a las empresas que innoven con confianza. Okta está listo para ayudar a asegurar ese futuro.
¿Listo para proteger su infraestructura de IA? Póngase en contacto con Okta para obtener información sobre cómo nuestro marco integral de seguridad de la IA puede proteger las inversiones en IA de su organización y permitir una innovación segura a escala.