Des principes à la pratique : appliquer l’éthique de l’IA en entreprise

À propos de l’auteur

Vrushali Channapattan

Director of Engineering

Vrushali is the Director of Engineering at Okta leading the Data and AI efforts in the Workforce Identity Cloud. In the past two decades, she has led key efforts in democratizing petabyte-scale data and influenced the design of major big data technologies, including serving on the Project Management Committee for Open Source Apache Hadoop. Prior to Okta, she spent over nine years at Twitter, contributing to its growth from startup to public company. She earned a Bachelor of Engineering in Computer Science from Pune University and a Master of Science in Computer Systems Engineering from Northeastern University in Boston.

17 février 2026 Temps de lecture: ~

Une nouvelle frontière de la cybersécurité a vu le jour. Un défi majeur qui, paradoxalement, fait peu parler de lui. Les estimations portent à 45 milliards le nombre d’identités non humaines qui évolueront dans nos environnements d’ici la fin de cette année. En sa qualité d’entreprise spécialisée dans la sécurité de l’identité, le rôle unique d’Okta en matière d’IA éthique est de sécuriser les agents d’IA, afin de préserver la sûreté et la confidentialité. L’adoption de l’IA éthique dans notre pratique d’ingénierie n’est pas une exception : elle fait partie intégrante de notre stratégie. Fidèles à l’approche que nous avons partagée dans un article sur l’innovation IA responsable, nous avons constaté que la mise en pratique efficace des principes de l’IA éthique exige quatre éléments fondamentaux :

  1. Aligner les principes sur les activités, la vision et les valeurs de l’entreprise pour obtenir l’adhésion
  2. Mettre en place une gouvernance pour assurer une supervision humaine
  3. Intégrer des principes dans chaque fonction pour les rendre pertinents et pratiques
  4. Soutenir l’ensemble du secteur pour accroître l’impact et favoriser l’inclusivité

1. Aligner les principes sur les activités, la vision et les valeurs

Le cœur de métier d’Okta est la gestion des identités. Nous développons des logiciels pour que les équipes IT puissent permettre aux collaborateurs de l’entreprise d’accéder en toute sécurité aux applications dont ils ont besoin, et pour que les développeurs puissent créer des solutions d’identité pour leurs clients dans les secteurs de la santé, de la finance et bien d’autres. Nos plateformes sécurisent tous les types d’identités – des agents d’IA aux clients, collaborateurs et partenaires. Puisque l’identité est le principal point d’entrée de toutes les interactions numériques, sa sécurisation contribue au respect des droits humains, y compris en termes de vie privée, de sécurité et de protection contre les discriminations.

L’IA éthique est parfaitement en phase avec le cœur de métier d’Okta :

  • Activités : notre mission consiste à sécuriser les identités. Celle-ci inclut désormais les agents d’IA, la prochaine grande cybermenace.
  • Vision : notre vision est de « permettre à chacun d’utiliser n’importe quelle technologie en toute sécurité ». La sécurisation des agents d’IA est un prolongement naturel de cette philosophie.
  • Valeurs : nos principes d’IA responsable sont directement liés aux valeurs de notre entreprise :
    • Donner la priorité à nos clients : nous sommes transparents avec nos clients en ce qui concerne nos fonctionnalités IA et la façon de les configurer, ce qui leur permet d’utiliser nos outils en toute sécurité.
    • Offrir une sécurité continue : nous mettons l’accent sur la sécurité, la confidentialité et la sûreté dès la conception.
    • Développer et maîtriser : nous assumons la responsabilité de notre travail.
    • Stimuler l’innovation : nous innovons de manière responsable.

2. Mettre en place une gouvernance et des parcours balisés 

Okta a formé une équipe interfonctionnelle de gouvernance de l’IA pour superviser notre stratégie d’IA responsable. Une gouvernance efficace est souvent perçue à tort comme un frein au progrès, mais en réalité, elle accélère l’innovation tout en favorisant la confiance. Les outils d’IA préapprouvés par cette équipe accélèrent l’adoption responsable de l’IA et permettent la mise en œuvre de nos principes d’IA responsable. De plus, les collaborateurs disposent ainsi d’un processus par lequel ils peuvent solliciter l’adoption de nouveaux outils d’IA en toute sécurité. Les cas d’usage spécifiques de l’IA appliquée sont étudiés de près par l’équipe de gouvernance, afin de vérifier que nos obligations contractuelles sont respectées. Pour aller plus loin, notre équipe d’ingénierie a mis en place des balises pour l’adoption des outils d’IA. Ces « parcours balisés » sont approuvés par les équipes de gouvernance et intègrent des garde-fous en matière de confidentialité, de sécurité et de conformité. Cette approche a permis aux ingénieurs de se concentrer sur le développement de fonctionnalités innovantes, en évitant l’ambiguïté et les frictions en termes de conformité.

Nous le savons, les équipes ont besoin d’espace pour expérimenter et innover. Pour permettre l’exploration, nous avons créé des zones d’expérimentation structurées, telles que des sandbox dédiées à l’IA lors de hackathons internes. Ces environnements contrôlés permettent la supervision ,nécessaire tout en renforçant la prise de confiance des collaborateurs et en leur offrant la possibilité d’apprendre et de monter en compétences.

3. Intégrer les principes dans chaque fonction

Pour pouvoir mettre en pratique des principes éthiques, ceux-ci doivent être adaptés au travail quotidien de chaque fonction. Cela signifie traduire les principes abstraits en conseils simples et pertinents pour les décisions prises par chaque équipe.

Par exemple, chez Okta :

  • Notre équipe de stratégie d’IA propose des journées consacrées à l’IA à l’échelle de l’entreprise, avec notamment des informations sur l’IA éthique, comme le partenariat humain-IA.
  • Notre équipe de conception a établi des principes de conception propres à l’IA.
  • Notre équipe de sécurité a élaboré les directives sur l’utilisation responsable de l’IA.
  • Notre équipe d’impact social et environnemental a créé des normes d’équipe et des bonnes pratiques pour l’IA, et élaboré un guide de durabilité pour l’utilisation de l’IA en collaboration avec l’équipe d’ingénierie, à l’intention de tous les employés d’Okta.
  • Notre équipe d’ingénierie a organisé une journée interne consacrée à l’IA au sein de l’entreprise afin de faciliter l’échange de connaissances sur les initiatives en matière d’IA, en mettant l’accent sur l’adoption responsable de l’IA.
  • Notre équipe d’ingénierie a mis en place des parcours balisés pour l’adoption d’outils d’IA, conformément aux recommandations de l’équipe de gouvernance de l’IA. 
  • Notre équipe de formation et développement personnel a organisé un bootcamp de formation obligatoire sur l’IA à l’échelle de l’entreprise, personnalisé pour chaque fonction, qui comprenait un module sur l’IA responsable couvrant des thématiques telles que la protection des informations sensibles, les hallucinations dans les assistants d’IA, les biais dans les assistants d’IA, ainsi que les principes et ressources d’Okta en matière d’IA responsable.
  • Chaque équipe et région dispose d’un « champion du changement » en matière d’IA (AI Change Champion) pour montrer la voie sur la façon dont nous apprenons, expérimentons et évoluons avec l’IA. Les collaborateurs d’Okta ont accès à une formation officielle à l’échelle de l’entreprise qui comprend l’IA responsable et une formation propre à chaque fonction. Ils ont également la possibilité de renforcer leurs connaissances sur l’adoption responsable de l’IA. Ces initiatives permettent aux employés d’acquérir de nouvelles compétences et une nouvelle expérience pour les aider à réussir au sein d’Okta et dans le cadre de leur propre carrière.

4. Soutenir le secteur et la communauté

L’IA éthique est une responsabilité partagée. Nous collaborons avec notre secteur, le monde universitaire et le secteur public pour faire progresser l’utilisation éthique et responsable. La vision d’Okta for Good est de permettre à chacun d’utiliser n’importe quelle technologie en toute sécurité. Nous la concrétisons grâce à des subventions diverses, à notre plateforme d’identité, et à la passion et à l’expertise de nos collaborateurs. Voici quelques exemples de la contribution d’Okta :

Cybersécurité d’intérêt public : nous collaborons avec le Center for Long-Term Cybersecurity (CLTC) de l’Université de Californie Berkeley afin de faire progresser la recherche en matière de sécurité du cyber et de l’IA, et d’améliorer la cybersécurité d’un large éventail d’organisations d’intérêt public. Dans le cadre d’une initiative en particulier, nous avons participé à un exercice de simulation mené à Berkeley, qui examinait le rôle en évolution rapide de l’IA générative dans la cybercriminalité, et avons par la suite publié le résultat de ces recherches dans la revue IEEE sur le même sujet. Dans le cadre d’un autre projet, reconnaissant que les cyberattaques visent de plus en plus souvent les organisations qui fournissent des services essentiels, nous avons participé à un partenariat avec WaTech de l’État de Washington et le CLTC de l’UC Berkeley afin d’aider à protéger les lignes de front numériques du secteur social.

Équité numérique : par le biais d’Okta for Good (O4G), nous fournissons des produits et services gratuits ou à prix réduit aux organisations à but non lucratif. Cela comprend l’accès à Identity Threat Protection avec Okta AI et des subventions financières pour les organisations qui offrent une formation en cyber et en IA aux talents de communautés sous-représentées. 

Mise en place de standards ouverts : nous faisons partie d’un groupe de travail de l’OpenID Foundation à l’origine d’IPSIE (Interoperability Profile for Secure Identity in the Enterprise), un nouveau standard de sécurité permettant que les agents d’IA interagissent en toute sécurité entre les systèmes.

Renforcement de l’écosystème : nous collaborons avec des éditeurs de logiciels indépendants (ISV) pour développer un nouveau protocole ouvert, Cross-App Access, qui gère en toute sécurité les interactions des agents d’IA.

Partage des bonnes pratiques : nous attestons de notre engagement par les valeurs que nous communiquons et par l’attention que nous portons aux pratiques d’IA durable de nos fournisseurs. Nous partageons également notre guide interne sur la manière d’utiliser l’IA de manière plus durable, en encourageant le secteur à adopter des pratiques efficaces et responsables.

Perspectives d’avenir 

Fondamentalement, passer des principes à la pratique devrait être un processus continu et non un projet ponctuel. Qu’il s’agisse de sécuriser des effectifs humains ou 45 milliards d’identités non humaines, notre mission est la même : permettre à chacun d’utiliser n’importe quelle technologie en toute sécurité. En ancrant ainsi notre stratégie d’IA, nous visons à faire en sorte que l’innovation ne compromette jamais la sécurité. Pour Okta, l’IA éthique ne consiste pas seulement à atténuer les risques, mais à concevoir un système où la technologie sert l’humanité de manière sûre et fiable à long terme.

À propos de l’auteur

Alison Colwell

Senior Director of ESG (Environmental, Social and Governance) and Sustainability

As part of the Okta for Good team, Alison Colwell is the Senior Director of ESG (Environmental, Social and Governance) and Sustainability for Okta. With her cross-functional partners, Alison is leading the effort to build the ESG function at Okta and developing the company’s climate and human rights strategies. She is very passionate about the interconnections of ESG issues, which include human rights, racial justice, and climate change.

Alison has worked for over 15 years on ESG, human rights, and sustainability, including building the program at LVMH brand, Sephora, and as a consultant with BSR (Business for Social Responsibility). She holds an MA in Public Policy and Administration from Carleton University, with a Bachelor of Commerce, and a Bachelor of Arts in Global Development Studies from Queen’s University, Canada. Alison volunteers as a Fellow at Stanford’s Center for Human Rights and International Justice, guest lecturing, mentoring students, as well as learning from them, and serves as a Strategic Board member for Business Council on Climate Change (BC3). Alison loves being an “auntie,” surfing, hiking, reading, birdwatching, and dancing.

Vrushali Channapattan

Director of Engineering

Vrushali is the Director of Engineering at Okta leading the Data and AI efforts in the Workforce Identity Cloud. In the past two decades, she has led key efforts in democratizing petabyte-scale data and influenced the design of major big data technologies, including serving on the Project Management Committee for Open Source Apache Hadoop. Prior to Okta, she spent over nine years at Twitter, contributing to its growth from startup to public company. She earned a Bachelor of Engineering in Computer Science from Pune University and a Master of Science in Computer Systems Engineering from Northeastern University in Boston.

Continuez votre parcours dans l‘univers de l’identité