Existe una nueva frontera de la ciberseguridad y es un desafío del que pocos hablan. Se espera que, para finales de este año, haya cuarenta y cinco mil millones de identidades no humanas o agentes de IA. Como empresa de seguridad de identidad, el papel único de Okta en la IA ética es garantizar la protección de los agentes de IA, promoviendo la seguridad y la privacidad. La adopción de la IA ética en nuestra práctica de ingeniería no es una excepción, sino algo fundamental para nuestra estrategia. Basándonos en nuestro enfoque compartido de innovación responsable en IA, descubrimos que llevar eficazmente los principios éticos de la IA a la práctica requiere cuatro elementos clave:
- Alinear los principios con el negocio, la visión y los valores para lograr aceptación.
- Establecer la gobernanza para proporcionar supervisión humana.
- Incorporar principios en cada función para que sean relevantes y prácticos.
- Apoyar al sector en general para aumentar el impacto y fomentar la inclusión.
1. Alineación con el negocio, la visión y los valores
El negocio principal de Okta es proporcionar gestión de identidades. Creamos software para que los equipos de TI ayuden a sus fuerzas laborales a acceder de forma segura a las aplicaciones que necesitan, y para que los desarrolladores creen soluciones de identidad para sus clientes en los sectores de salud, finanzas y otros. Nuestras plataformas protegen todo tipo de identidades, desde agentes de IA hasta clientes, empleados y socios. Dado que la identidad es la puerta de entrada principal para todas las interacciones digitales, protegerla permite el respeto de los derechos humanos, incluida la privacidad, la seguridad y la no discriminación.
La IA ética se alinea directamente con los principios básicos de Okta:
- Negocio. Nuestro negocio es garantizar la seguridad de las identidades. Esto ahora incluye agentes de IA, que son la próxima gran amenaza cibernética.
- Visión. Nuestra visión consiste en “permitir a todas las personas usar cualquier tecnología de forma segura”. Proteger a los agentes de IA es una extensión natural de esta idea.
- Valores. Nuestros Principios para una IA responsable están directamente relacionados con los valores de nuestra empresa:
- Amar a nuestros clientes. Somos transparentes con los clientes sobre nuestras capacidades de IA y cómo configurarlas, lo que les permite usar nuestras herramientas de manera segura.
- Siempre seguro y siempre activo. Nos enfocamos en la seguridad, la privacidad y la protección desde el diseño.
- Desarrollamos el servicio y somos los propietarios. Nos responsabilizamos de nuestro trabajo.
- Impulsamos el futuro. Innovamos de manera responsable.
2. Establecimiento de la gobernanza y preparación de rutas
Okta formó un equipo de gobernanza de IA multifuncional para supervisar su estrategia de IA responsable. A menudo, la gobernanza eficaz se malinterpreta como una fricción que dificulta el progreso, pero, en realidad, acelera la innovación al tiempo que permite que la confianza vaya de copiloto. Las herramientas de IA preaprobadas por este equipo aceleran la adopción responsable de la IA y permiten la implementación de nuestros Principios para una IA responsable. Además, esto proporciona un proceso que les permite a los empleados solicitar revisiones para adoptar nuevas herramientas de IA de forma segura. Los casos de uso específicos de la IA aplicada son revisados exhaustivamente por el equipo de gobernanza para verificar que se cumplan nuestras obligaciones contractuales. Dando siempre un paso adelante, nuestro equipo de ingeniería ha establecido rutas preparadas para la adopción de herramientas de IA. Estas “rutas preparadas” son examinadas por los equipos de gobernanza y tienen protecciones de privacidad, seguridad y cumplimiento integradas. Este enfoque ha permitido a los ingenieros centrarse en la creación de capacidades innovadoras, evitando la ambigüedad y la fricción en materia de cumplimiento.
Reconocemos que los empleados necesitan un espacio para experimentar e innovar. Para permitir la exploración, creamos zonas de experimentación estructuradas, como entornos de pruebas de IA dedicados durante nuestros hackatones internos. Estos entornos controlados permiten realizar la supervisión necesaria al tiempo que fomentan la confianza de los empleados y les brindan oportunidades para aprender y mejorar sus habilidades.
3. Incorporación de principios en cada función
Para aplicar los principios éticos en la práctica, deben adaptarse al trabajo diario de cada función. Esto significa traducir los principios abstractos en una guía simple y relevante para las decisiones que toma cada equipo.
Por ejemplo, en Okta:
- Nuestro equipo de estrategia de IA ofrece días de IA para toda la empresa, que incluyen contenido ético de IA, como el vínculo entre los seres humanos y la IA.
- Nuestro equipo de diseño estableció principios de diseño de IA específicos.
- Nuestro equipo de seguridad desarrolló las Pautas de uso responsable de la IA de Okta.
- Nuestro equipo de impacto social y ambiental creó normas y prácticas recomendadas para el uso de IA en los equipos, y creó una Guía de sostenibilidad para el uso de la IA con el equipo de ingeniería, orientada a todos los empleados de Okta.
- Nuestro equipo de ingeniería organizó un día interno de IA de ingeniería en la empresa para facilitar el intercambio de ideas sobre las iniciativas de IA con un enfoque en la adopción de la IA responsable.
- Nuestro equipo de ingeniería estableció rutas preparadas para la adopción de herramientas de IA según las recomendaciones del equipo de gobernanza de IA.
- Nuestro equipo de aprendizaje y desarrollo del talento organizó un bootcamp de capacitación obligatorio sobre IA para toda la empresa (personalizado para cada función) que incluía un módulo sobre IA responsable. Este módulo abarcaba temas como la protección de información confidencial, las alucinaciones y el sesgo en los asistentes de IA, y los principios y recursos de IA responsable de Okta.
- Cada equipo y región tiene un promotor de cambios de IA, que se encarga de definir cómo aprendemos, experimentamos y crecemos con la IA. Los empleados de Okta tienen acceso a capacitaciones formales para toda la empresa, que incluyen IA responsable y contenido específico para cada función, y pueden aumentar su base de conocimientos sobre la adopción responsable de la IA. Esto proporciona a los empleados nuevas habilidades y experiencia para ayudarlos a tener éxito en Okta y en sus profesiones.
4. Apoyo al sector y a la comunidad
La IA ética es una responsabilidad compartida. Trabajamos en colaboración con todo el sector, el ámbito académico y el sector público para promover el uso ético y responsable. La visión de Okta for Good es permitir que todas las personas usen cualquier tecnología de manera segura. Lo logramos mediante subvenciones, nuestra plataforma de software de identidad y la pasión y experiencia de nuestros empleados. Estos son algunos ejemplos de los aportes de Okta:
Ciberseguridad de interés público. Colaboramos con el Center for Long-Term Cybersecurity (CLTC) de la universidad UC Berkeley para promover la investigación en seguridad cibernética e IA, y para mejorar la ciberseguridad de una amplia gama de organizaciones de interés público. En una iniciativa, participamos en un ejercicio teórico realizado en la universidad UC Berkeley, que examinó el papel en rápida evolución de la IA generativa en los delitos cibernéticos y, posteriormente, publicamos investigaciones en la revista IEEE sobre el mismo tema. En otra iniciativa, tras reconocer que los ciberataques amenazan cada vez más a las organizaciones que brindan servicios esenciales, nos asociamos con WaTech del estado de Washington y el CLTC de la universidad UC Berkeley para ayudar a proteger las líneas de defensa digitales del sector social.
Equidad digital. A través de Okta for Good (O4G), brindamos productos y servicios gratuitos o con descuento a organizaciones sin fines de lucro. Esto incluye el acceso a Identity Threat Protection con Okta AI y subvenciones financieras para organizaciones que brindan capacitación digital y de IA a talentos de comunidades subrepresentadas.
Estándares abiertos. Formamos parte de un grupo de trabajo de la OpenID Foundation para crear el IPSIE (perfil de interoperabilidad para una identidad segura en la empresa), un nuevo estándar de seguridad para que los agentes de IA interactúen de forma segura entre sistemas.
Ecosistema fortalecido. Nos asociamos con ISV para desarrollar un nuevo protocolo abierto, Cross-app Access, que gestiona de forma segura las interacciones de los agentes de IA.
Intercambio de prácticas recomendadas. Señalamos nuestro compromiso con el mercado a través de nuestros principios públicos y preguntando a los proveedores sobre sus prácticas de IA sostenible. También compartimos nuestra guía para empleados sobre cómo usar la IA de manera más sostenible, animando al sector a adoptar prácticas eficientes y responsables.
El futuro
En esencia, llevar los principios a la vida real debe ser una práctica operativa continua, no un proyecto único. Ya sea que se trate de proteger a una fuerza laboral humana o a 45 000 millones de identidades no humanas, nuestra misión es la misma: permitir a todas las personas usar cualquier tecnología de forma segura. Al afianzar nuestra estrategia de IA de esta manera, nuestro objetivo es asegurarnos de que la innovación nunca ponga en riesgo la seguridad. Para Okta, la IA ética no se trata solo de mitigar el riesgo, sino de diseñar un sistema donde la tecnología sirva a la humanidad de manera segura y confiable a largo plazo.