"Você vai ter que lidar com [diversidade] quer queira ou não", disse Jarik Conrad, diretor sênior de inovação em gestão de capital humano (HCM) da Ultimate Software, a um grupo de atentos participantes em uma das várias sessões sobre diversidade durante o HR Tech deste ano.
Durante o HR Tech deste ano, encontrei alguns fornecedores, explorei algumas demonstrações e participei de várias sessões sobre diversidade em tecnologia. Conrad e Trish McFarlane, CEO e analista principal da H3 HR Advisors, apresentaram "Como a Tecnologia de RH Pode Ajudar CHROs a Liderar as Iniciativas de DE&I Mais Impactantes". Esta sessão forneceu insights sobre questões como estatísticas de diversidade, equidade e inclusão (DE&I) na América do Norte e como entender o contínuo de necessidades dos funcionários.
Infelizmente, a sessão terminou antes que Conrad e McFarlane pudessem explicar como a tecnologia de RH ajuda a liderar iniciativas significativas de DE&I. Eu estava interessado em ouvi-los falar sobre como a tecnologia, especificamente software de recrutamento de diversidade, pode ajudar. O "como" é a parte mais difícil da equação de responder, e o G2 sobre diversidade está apenas encontrando mais perguntas.
Claramente, a tecnologia não é a panaceia para aumentar a diversidade em todas as indústrias. No entanto, ela nos permite fazer coisas de uma maneira que não era possível antes. Pode ajudar os profissionais de RH a identificar problemas e sua escala; no entanto, pode apresentar desafios adicionais ao longo do caminho. Um tema emergiu ao longo das sessões sobre diversidade no HR Tech: a necessidade de entender o que está sob o capô, ou melhor, o que está dentro da caixa preta.
O problema da caixa preta da IA
Dentro e fora do local de trabalho, estamos confiando cada vez mais em sistemas de inteligência artificial (IA) para tomar decisões em nosso nome. De Alexa da Amazon a recomendações personalizadas de compras online, nossas vidas são impactadas diariamente por esses sistemas. Embora a IA esteja embutida em nosso cotidiano, esses sistemas não são nada opacos. Não podemos ver dentro da caixa preta, ou do algoritmo, e, portanto, não podemos entender como as decisões são tomadas. Isso geralmente se torna aparente depois que viés é encontrado dentro de uma solução.
O que é a caixa preta?
Uma caixa preta é um sistema que pode ser entendido em termos de suas entradas e saídas; no entanto, devido à natureza proprietária dos dados, há pouca percepção sobre o funcionamento interno do sistema.
No início deste mês, na TWIMLcon em San Francisco, o escritor sênior de IA da VentureBeat, Khari Johnson, moderou um painel sobre operacionalizar IA responsável. Em um artigo de acompanhamento sobre o painel, ele expandiu a ideia de que a falta de percepção sobre como os sistemas de IA operam resulta em viés e pode prejudicar pessoas reais de maneiras sérias.
Ao considerar o foco no usuário, o engenheiro de software sênior do LinkedIn, Guillaume Saint-Jacques, insistiu que olhemos além do viés e consideremos o potencial dano que sistemas de IA não verificados causam. Rachel Thomas, diretora do Centro de Ética de Dados Aplicados, forneceu exemplos de algoritmos que cortam erroneamente benefícios do Medicaid ou demitem cegamente professores com base em dados falhos.
DICA: Não é tudo aviso e alerta quando se trata de IA. Rebecca Reynoso detalha os benefícios e os riscos da inteligência artificial e fornece exemplos da indústria. |
O potencial de dano e viés na IA não conhece limites. A IA ajudando a melhorar o recrutamento de diversidade fez manchetes recentemente. A Amazon passou anos construindo um sistema de recrutamento de IA que teve que descartar depois que mostrou viés contra candidatas mulheres. O modelo classificava candidatos com base em 10 anos de currículos. A maioria dos currículos era de homens; portanto, o sistema considerava os homens mais qualificados quando classificados ao lado de candidatas mulheres.
Diversificando a tecnologia
Já se passaram cinco anos desde que o CEO da Apple, Tim Cook, escreveu uma carta aos funcionários prometendo que a empresa seria "tão inovadora em avançar a diversidade quanto somos em desenvolver produtos". Como a WIRED relatou recentemente, a indústria de tecnologia fez muito pouco progresso em termos de iniciativas de contratação de diversidade. Hoje, as forças de trabalho que compõem a Apple, Facebook, Google e Microsoft ainda são predominantemente homens (brancos ou asiáticos). De acordo com Freada Kapor Klein, sócia fundadora da firma de capital de risco Kapor Capital, há barreiras para alcançar metas de diversidade em cada esquina.
As empresas precisam abordar os preconceitos profundamente enraizados em sua cultura antes de poderem melhorar suas práticas de contratação. Atualmente, estamos enfrentando um verdadeiro dilema. A tecnologia tem um problema com diversidade. A tecnologia está inadvertidamente criando soluções de IA tendenciosas que prejudicam, desconsideram ou ignoram uma variedade de humanos. A tecnologia precisa de uma gama diversificada de indivíduos para construir e instituir IA responsável. A tecnologia parece não conseguir fazer progressos reais em expandir seu pool de talentos. E, no entanto, estamos constantemente inovando e expandindo as capacidades da IA. A IA pode ajudar a diversificar o pool de talentos?
Reimaginando o RH
De acordo com o relatório Global Talent Trends 2019 da consultoria Mercer, 88% das empresas já usam IA em RH. A maioria dessas empresas emprega soluções de IA na forma de chatbots para candidatos e funcionários, gestão de desempenho, planejamento de carreira e triagem ou avaliação de candidatos.
Um número crescente de soluções de triagem e avaliação baseadas em IA que as empresas usam ou estão considerando já inclui recursos de diversidade. O mercado para essa tecnologia só vai crescer. Já existem muitas empresas implementando essas soluções. Durante outro painel no HR Tech sobre RH na Era da Inteligência Artificial, Jennifer Carpenter, VP de aquisição de talentos globais da Delta, disse que implementar tecnologia de avaliação impulsionada por IA permitiu à Delta dobrar o número de candidatos que chegaram às entrevistas finais.
Durante a parte de perguntas dessa sessão, um participante perguntou ao painel se eles "auditam o algoritmo" em busca de erros ou problemas. Carpenter disse que, à medida que o pipeline da Delta aumentava, eles testavam e verificavam consistentemente que seus algoritmos não apresentavam viés flagrante. Enquanto isso, Jean Smart, VP de recrutamento global da Hilton Hotels, atestou que sua equipe testa continuamente seus sistemas em busca de erros. O relacionamento da Hilton com o fornecedor é de responsabilidade mútua. Se encontrarem viés, erro ou dano, compartilham o ônus da responsabilidade com a empresa e, em seguida, corrigem.
Próximos passos para IA e diversidade
Esforços para melhorar práticas de contratação que lançam uma rede ampla exigem uma combinação de aprimorar e melhorar regularmente as soluções disponíveis, implementar software de recrutamento para melhorar o processo e validar continuamente sua inofensividade. Com as grandes mentes atualmente na tecnologia e o talentoso pool de candidatos diversos ansiosos para trabalhar, há um grande potencial para melhoria e desenvolvimento dessas ferramentas inestimáveis.
Quer aprender mais sobre Software de Recrutamento de Diversidade? Explore os produtos de Recrutamento de Diversidade.

Courtney Moran
Courtney is a former G2 senior research analyst for HR technologies, whose coverage areas include recruiting, employee engagement, and talent management. Her comprehensive research on employee engagement and HR trends has been quoted in TechRepublic, among other publications.