Existe uma nova fronteira na segurança cibernética — um desafio sobre o qual poucas pessoas estão falando. Quarenta e cinco bilhões de identidades não humanas (ou agentes de IA) estão previstas até o final deste ano. Como uma empresa de segurança de identidade, o papel único da Okta na IA ética é proteger os agentes de IA, oferecendo segurança e privacidade. O uso da IA ética em nossa prática de engenharia não é uma exceção; é parte integrante da nossa estratégia. Com base na abordagem compartilhada em Responsible AI Innovation (Inovação com IA responsável), descobrimos que há quatro elementos-chave para colocar os princípios da IA ética em prática de forma eficaz:
- Alinhar princípios com negócios, visão e valores para garantir a adesão.
- Estabelecer a governança para fornecer a supervisão humana.
- Incorporar os princípios em cada função para torná-los relevantes e práticos.
- Apoiar a indústria de modo mais amplo para aumentar o impacto e promover a inclusão.
1. Alinhar aos negócios, à visão e aos valores
O principal negócio da Okta é fornecer gerenciamento de identidades. Desenvolvemos software para equipes de TI ajudarem suas forças de trabalho a acessar os aplicativos necessários com segurança e para os desenvolvedores criarem soluções de identidade para seus clientes nos setores de saúde e finanças, entre outros. Nossas plataformas garantem a segurança de todos os tipos de identidade, de agentes de IA até clientes, funcionários e parceiros. Como a identidade é o principal ponto de entrada para todas as interações digitais, protegê-la é uma questão de respeito aos direitos humanos, incluindo privacidade, segurança e liberdade de discriminação.
A IA ética se alinha diretamente com o núcleo da Okta:
- Negócios: nosso negócio é proteger identidades. Isso agora inclui agentes de IA — a próxima grande ameaça cibernética.
- Visão: nossa visão é "liberar todos para usar qualquer tecnologia com segurança". A proteção dos agentes de IA é uma extensão natural disso.
- Valores: nossos Princípios de IA Responsável são mapeados diretamente para os valores da nossa empresa:
- Amar nossos clientes: somos transparentes com os clientes sobre nossos recursos de IA e como configurá-los, capacitando-os a usar nossas ferramentas com segurança.
- Sempre seguro. Sempre ativo: nós priorizamos a segurança, a privacidade e a proteção por design.
- Construir e assumir a responsabilidade: nós nos responsabilizamos pelo nosso trabalho.
- Conduzir o futuro: inovamos de forma responsável.
2. Estabelecer governança e abrir caminhos
A Okta formou uma equipe interfuncional de governança de IA para supervisionar nossa estratégia de IA responsável. Muitas vezes, a governança eficaz é mal interpretada como um atrito que dificulta o progresso, mas, na realidade, ela acelera a inovação enquanto permite que a confiança ande a reboque. As ferramentas de IA pré-aprovadas por essa equipe tornam mais rápida a adoção de uma IA responsável e permitem a implementação dos nossos princípios de IA responsável. Além disso, é oferecido um processo para que os funcionários solicitem análises para adotar novas ferramentas de IA com segurança. Casos de uso específicos de IA aplicada são revisados minuciosamente pela equipe de governança, para verificar se nossas obrigações contratuais estão sendo cumpridas. Indo além, nossa equipe de Engenharia abriu caminhos para a adoção de ferramentas de IA. Esses "caminhos abertos" são examinados pelas equipes de governança e possuem proteções de privacidade, segurança e conformidade integradas. Tal abordagem permitiu que os engenheiros se concentrassem na criação de recursos inovadores, evitando ambiguidade e atrito na conformidade.
Reconhecemos que os funcionários precisam de um espaço para experimentar e inovar. Para permitir a exploração, criamos zonas de experimentação estruturadas, como sandboxes de IA dedicadas durante os hackathons internos. Esses ambientes controlados permitem a supervisão necessária, além de aumentarem a confiança dos funcionários e oferecerem oportunidades para que eles aprendam e aprimorem suas habilidades.
3. Incorporar princípios em cada função
Para aplicar princípios éticos na prática, eles devem ser adaptados ao trabalho diário de cada função. Isso significa converter princípios abstratos em orientações simples e relevantes para as decisões que cada equipe toma.
Por exemplo, na Okta:
- Nossa equipe de Estratégia de IA está promovendo dias de IA em toda a empresa, incluindo conteúdo sobre IA ética, como a Parceria Humano-IA.
- Nossa equipe de Design estabeleceu princípios específicos de design de IA.
- Nossa equipe de Segurança desenvolveu as Diretrizes de Uso Responsável da IA da Okta.
- Nossa equipe de Impacto Social e Ambiental desenvolveu normas de equipe e boas práticas para IA, além de criar um Guia de Sustentabilidade para o Uso da IA em colaboração com a equipe de engenharia, destinado a todos os funcionários da Okta.
- Nossa equipe de Engenharia organizou um dia interno de IA de engenharia na empresa para facilitar a troca de conhecimento sobre os esforços de IA, com foco na adoção de uma IA responsável.
- Nossa equipe de Engenharia abriu caminhos para a adoção de ferramentas de IA, em consonância com as recomendações da Equipe de Governança de IA.
- Nossa equipe de Aprendizagem e Desenvolvimento de Talentos forneceu um treinamento obrigatório sobre IA para toda a empresa, personalizado para cada função, que incluiu um módulo sobre IA responsável, abordando tópicos como proteção de informações confidenciais, alucinações em assistentes de IA, viés em assistentes de IA e os princípios e recursos de IA responsável da Okta.
- Cada equipe e região conta com um Promotor de Mudanças de IA para liderar a forma como aprendemos, experimentamos e crescemos com a IA. Os funcionários da Okta têm acesso a treinamentos formais em toda a empresa, que incluem IA responsável e treinamentos específicos para cada função, além da oportunidade de ampliar sua base de conhecimento sobre a adoção de uma IA responsável. Isso oferece novas habilidades e experiências aos funcionários para ajudá-los a ter sucesso na Okta e em suas carreiras.
4. Apoiar a indústria e a comunidade
A IA ética é uma responsabilidade compartilhada. Trabalhamos em colaboração com a indústria, a academia e o setor público para promover o uso ético e responsável. A visão da Okta for Good é permitir que todos usem qualquer tecnologia com segurança. Realizamos isso por meio de financiamento de doações, da nossa plataforma de software de identidade e da paixão e experiência dos nossos funcionários. Estes são alguns exemplos de como a Okta contribui:
Cibersegurança de interesse público: fazemos parceria com o Center for Long-Term Cybersecurity (CLTC) da UC Berkeley (EUA) para promover a pesquisa em segurança cibernética e de IA e para melhorar a cibersegurança de uma ampla gama de organizações de interesse público. Em uma iniciativa, participamos de um Exercício de Simulação realizado na Universidade da Califórnia, Berkeley, para examinar o papel em rápida evolução da IA generativa no crime cibernético e, posteriormente, publicamos pesquisas na revista IEEE sobre o assunto. Em outra iniciativa, reconhecendo que os ataques cibernéticos estão ameaçando cada vez mais as organizações que fornecem serviços essenciais, participamos de uma parceria com a WaTech do Estado de Washington e o CLTC da UC Berkeley para ajudar a proteger as linhas de frente digitais do setor social.
Equidade digital: por meio da Okta for Good (O4G), fornecemos produtos e serviços gratuitos ou com desconto para organizações sem fins lucrativos. Isso inclui acesso ao Identity Threat Protection com a IA da Okta e subsídios financeiros para organizações que oferecem treinamento em cibersegurança e IA para talentos sub-representados.
Estabelecimento de padrões abertos: fazemos parte de um grupo de trabalho da OpenID Foundation para criar o IPSIE (Interoperability Profile for Secure Identity in the Enterprise, ou perfil de interoperabilidade para identidade segura na empresa), um novo padrão de segurança para agentes de IA interagirem com segurança entre sistemas.
Fortalecimento do ecossistema: fazemos parceria com ISVs para desenvolver um novo protocolo aberto, o Cross-app Access, que gerencia com segurança as interações de agentes de IA.
Compartilhamento de boas práticas: demonstramos nosso compromisso com o mercado por meio dos nossos princípios públicos e ao questionar os fornecedores sobre suas práticas de IA sustentável. Também compartilhamos nosso guia para funcionários sobre como utilizar a IA de maneira mais sustentável, incentivando a indústria a adotar práticas eficientes e responsáveis.
Olhando para o futuro
Em sua essência, passar dos princípios à prática deve ser uma prática operacional contínua, e não um projeto único. Seja protegendo uma força de trabalho humana ou 45 bilhões de identidades não humanas, nossa missão é a mesma: permitir que todos usem qualquer tecnologia com segurança. Ao ancorar nossa estratégia de IA dessa forma, pretendemos garantir que a inovação nunca comprometa essa segurança. Para a Okta, a IA ética não é uma questão apenas de mitigar riscos, mas de arquitetar um sistema em que a tecnologia sirva à humanidade de forma segura e confiável a longo prazo.