De los principios a la práctica: implementación de la ética de la IA en las organizaciones

Acerca del autor

Vrushali Channapattan

Director of Engineering

Vrushali is the Director of Engineering at Okta leading the Data and AI efforts in the Workforce Identity Cloud. In the past two decades, she has led key efforts in democratizing petabyte-scale data and influenced the design of major big data technologies, including serving on the Project Management Committee for Open Source Apache Hadoop. Prior to Okta, she spent over nine years at Twitter, contributing to its growth from startup to public company. She earned a Bachelor of Engineering in Computer Science from Pune University and a Master of Science in Computer Systems Engineering from Northeastern University in Boston.

17 febrero 2026 Tiempo de lectura: ~

Existe una nueva frontera de la ciberseguridad y es un desafío del que pocos hablan. Se espera que, para finales de este año, haya cuarenta y cinco mil millones de identidades no humanas o agentes de IA. Como empresa de seguridad de identidad, el papel único de Okta en la IA ética es garantizar la protección de los agentes de IA, promoviendo la seguridad y la privacidad. La adopción de la IA ética en nuestra práctica de ingeniería no es una excepción, sino algo fundamental para nuestra estrategia. Basándonos en nuestro enfoque compartido de innovación responsable en IA, descubrimos que llevar eficazmente los principios éticos de la IA a la práctica requiere cuatro elementos clave:

  1. Alinear los principios con el negocio, la visión y los valores para lograr aceptación.
  2. Establecer la gobernanza para proporcionar supervisión humana.
  3. Incorporar principios en cada función para que sean relevantes y prácticos.
  4. Apoyar al sector en general para aumentar el impacto y fomentar la inclusión.

1. Alineación con el negocio, la visión y los valores

El negocio principal de Okta es proporcionar gestión de identidades. Creamos software para que los equipos de TI ayuden a sus fuerzas laborales a acceder de forma segura a las aplicaciones que necesitan, y para que los desarrolladores creen soluciones de identidad para sus clientes en los sectores de salud, finanzas y otros. Nuestras plataformas protegen todo tipo de identidades, desde agentes de IA hasta clientes, empleados y socios. Dado que la identidad es la puerta de entrada principal para todas las interacciones digitales, protegerla permite el respeto de los derechos humanos, incluida la privacidad, la seguridad y la no discriminación.

La IA ética se alinea directamente con los principios básicos de Okta:

  • Negocio. Nuestro negocio es garantizar la seguridad de las identidades. Esto ahora incluye agentes de IA, que son la próxima gran amenaza cibernética.
  • Visión. Nuestra visión consiste en “permitir a todas las personas usar cualquier tecnología de forma segura”. Proteger a los agentes de IA es una extensión natural de esta idea.
  • Valores. Nuestros Principios para una IA responsable están directamente relacionados con los valores de nuestra empresa:
    • Amar a nuestros clientes. Somos transparentes con los clientes sobre nuestras capacidades de IA y cómo configurarlas, lo que les permite usar nuestras herramientas de manera segura.
    • Siempre seguro y siempre activo. Nos enfocamos en la seguridad, la privacidad y la protección desde el diseño.
    • Desarrollamos el servicio y somos los propietarios. Nos responsabilizamos de nuestro trabajo.
    • Impulsamos el futuro. Innovamos de manera responsable.

2. Establecimiento de la gobernanza y preparación de rutas 

Okta formó un equipo de gobernanza de IA multifuncional para supervisar su estrategia de IA responsable. A menudo, la gobernanza eficaz se malinterpreta como una fricción que dificulta el progreso, pero, en realidad, acelera la innovación al tiempo que permite que la confianza vaya de copiloto. Las herramientas de IA preaprobadas por este equipo aceleran la adopción responsable de la IA y permiten la implementación de nuestros Principios para una IA responsable. Además, esto proporciona un proceso que les permite a los empleados solicitar revisiones para adoptar nuevas herramientas de IA de forma segura. Los casos de uso específicos de la IA aplicada son revisados exhaustivamente por el equipo de gobernanza para verificar que se cumplan nuestras obligaciones contractuales. Dando siempre un paso adelante, nuestro equipo de ingeniería ha establecido rutas preparadas para la adopción de herramientas de IA. Estas “rutas preparadas” son examinadas por los equipos de gobernanza y tienen protecciones de privacidad, seguridad y cumplimiento integradas. Este enfoque ha permitido a los ingenieros centrarse en la creación de capacidades innovadoras, evitando la ambigüedad y la fricción en materia de cumplimiento.

Reconocemos que los empleados necesitan un espacio para experimentar e innovar. Para permitir la exploración, creamos zonas de experimentación estructuradas, como entornos de pruebas de IA dedicados durante nuestros hackatones internos. Estos entornos controlados permiten realizar la supervisión necesaria al tiempo que fomentan la confianza de los empleados y les brindan oportunidades para aprender y mejorar sus habilidades.

3. Incorporación de principios en cada función

Para aplicar los principios éticos en la práctica, deben adaptarse al trabajo diario de cada función. Esto significa traducir los principios abstractos en una guía simple y relevante para las decisiones que toma cada equipo.

Por ejemplo, en Okta:

  • Nuestro equipo de estrategia de IA ofrece días de IA para toda la empresa, que incluyen contenido ético de IA, como el vínculo entre los seres humanos y la IA.
  • Nuestro equipo de diseño estableció principios de diseño de IA específicos.
  • Nuestro equipo de seguridad desarrolló las Pautas de uso responsable de la IA de Okta.
  • Nuestro equipo de impacto social y ambiental creó normas y prácticas recomendadas para el uso de IA en los equipos, y creó una Guía de sostenibilidad para el uso de la IA con el equipo de ingeniería, orientada a todos los empleados de Okta.
  • Nuestro equipo de ingeniería organizó un día interno de IA de ingeniería en la empresa para facilitar el intercambio de ideas sobre las iniciativas de IA con un enfoque en la adopción de la IA responsable.
  • Nuestro equipo de ingeniería estableció rutas preparadas para la adopción de herramientas de IA según las recomendaciones del equipo de gobernanza de IA. 
  • Nuestro equipo de aprendizaje y desarrollo del talento organizó un bootcamp de capacitación obligatorio sobre IA para toda la empresa (personalizado para cada función) que incluía un módulo sobre IA responsable. Este módulo abarcaba temas como la protección de información confidencial, las alucinaciones y el sesgo en los asistentes de IA, y los principios y recursos de IA responsable de Okta.
  • Cada equipo y región tiene un promotor de cambios de IA, que se encarga de definir cómo aprendemos, experimentamos y crecemos con la IA. Los empleados de Okta tienen acceso a capacitaciones formales para toda la empresa, que incluyen IA responsable y contenido específico para cada función, y pueden aumentar su base de conocimientos sobre la adopción responsable de la IA. Esto proporciona a los empleados nuevas habilidades y experiencia para ayudarlos a tener éxito en Okta y en sus profesiones.

4. Apoyo al sector y a la comunidad

La IA ética es una responsabilidad compartida. Trabajamos en colaboración con todo el sector, el ámbito académico y el sector público para promover el uso ético y responsable. La visión de Okta for Good es permitir que todas las personas usen cualquier tecnología de manera segura. Lo logramos mediante subvenciones, nuestra plataforma de software de identidad y la pasión y experiencia de nuestros empleados. Estos son algunos ejemplos de los aportes de Okta:

Ciberseguridad de interés público. Colaboramos con el Center for Long-Term Cybersecurity (CLTC) de la universidad UC Berkeley para promover la investigación en seguridad cibernética e IA, y para mejorar la ciberseguridad de una amplia gama de organizaciones de interés público. En una iniciativa, participamos en un ejercicio teórico realizado en la universidad UC Berkeley, que examinó el papel en rápida evolución de la IA generativa en los delitos cibernéticos y, posteriormente, publicamos investigaciones en la revista IEEE sobre el mismo tema. En otra iniciativa, tras reconocer que los ciberataques amenazan cada vez más a las organizaciones que brindan servicios esenciales, nos asociamos con WaTech del estado de Washington y el CLTC de la universidad UC Berkeley para ayudar a proteger las líneas de defensa digitales del sector social.

Equidad digital. A través de Okta for Good (O4G), brindamos productos y servicios gratuitos o con descuento a organizaciones sin fines de lucro. Esto incluye el acceso a Identity Threat Protection con Okta AI y subvenciones financieras para organizaciones que brindan capacitación digital y de IA a talentos de comunidades subrepresentadas. 

Estándares abiertos. Formamos parte de un grupo de trabajo de la OpenID Foundation para crear el IPSIE (perfil de interoperabilidad para una identidad segura en la empresa), un nuevo estándar de seguridad para que los agentes de IA interactúen de forma segura entre sistemas.

Ecosistema fortalecido. Nos asociamos con ISV para desarrollar un nuevo protocolo abierto, Cross-app Access, que gestiona de forma segura las interacciones de los agentes de IA.

Intercambio de prácticas recomendadas. Señalamos nuestro compromiso con el mercado a través de nuestros principios públicos y preguntando a los proveedores sobre sus prácticas de IA sostenible. También compartimos nuestra guía para empleados sobre cómo usar la IA de manera más sostenible, animando al sector a adoptar prácticas eficientes y responsables.

El futuro 

En esencia, llevar los principios a la vida real debe ser una práctica operativa continua, no un proyecto único. Ya sea que se trate de proteger a una fuerza laboral humana o a 45 000 millones de identidades no humanas, nuestra misión es la misma: permitir a todas las personas usar cualquier tecnología de forma segura. Al afianzar nuestra estrategia de IA de esta manera, nuestro objetivo es asegurarnos de que la innovación nunca ponga en riesgo la seguridad. Para Okta, la IA ética no se trata solo de mitigar el riesgo, sino de diseñar un sistema donde la tecnología sirva a la humanidad de manera segura y confiable a largo plazo.

Acerca del autor

Alison Colwell

Senior Director of ESG (Environmental, Social and Governance) and Sustainability

As part of the Okta for Good team, Alison Colwell is the Senior Director of ESG (Environmental, Social and Governance) and Sustainability for Okta. With her cross-functional partners, Alison is leading the effort to build the ESG function at Okta and developing the company’s climate and human rights strategies. She is very passionate about the interconnections of ESG issues, which include human rights, racial justice, and climate change.

Alison has worked for over 15 years on ESG, human rights, and sustainability, including building the program at LVMH brand, Sephora, and as a consultant with BSR (Business for Social Responsibility). She holds an MA in Public Policy and Administration from Carleton University, with a Bachelor of Commerce, and a Bachelor of Arts in Global Development Studies from Queen’s University, Canada. Alison volunteers as a Fellow at Stanford’s Center for Human Rights and International Justice, guest lecturing, mentoring students, as well as learning from them, and serves as a Strategic Board member for Business Council on Climate Change (BC3). Alison loves being an “auntie,” surfing, hiking, reading, birdwatching, and dancing.

Vrushali Channapattan

Director of Engineering

Vrushali is the Director of Engineering at Okta leading the Data and AI efforts in the Workforce Identity Cloud. In the past two decades, she has led key efforts in democratizing petabyte-scale data and influenced the design of major big data technologies, including serving on the Project Management Committee for Open Source Apache Hadoop. Prior to Okta, she spent over nine years at Twitter, contributing to its growth from startup to public company. She earned a Bachelor of Engineering in Computer Science from Pune University and a Master of Science in Computer Systems Engineering from Northeastern University in Boston.

Continúe con su recorrido de identidad