"Vas a tener que lidiar con [diversidad] quieras o no," dijo Jarik Conrad, director senior de innovación en gestión de capital humano (HCM) para Ultimate Software, a un grupo de asistentes atentos en una de las pocas sesiones sobre diversidad durante el HR Tech de este año.
Durante el HR Tech de este año me reuní con algunos proveedores, exploré algunas demostraciones y asistí a bastantes sesiones sobre diversidad en tecnología. Conrad y Trish McFarlane, CEO y analista principal de H3 HR Advisors, presentaron "Cómo la tecnología de RRHH puede ayudar a los CHRO a liderar las iniciativas de DE&I más impactantes". Esta sesión proporcionó información sobre temas como estadísticas de diversidad, equidad e inclusión (DE&I) en América del Norte, y cómo entender el continuo de necesidades de los empleados.
Por desgracia, la sesión terminó antes de que Conrad y McFarlane pudieran exponer cómo la tecnología de RRHH ayuda a liderar iniciativas significativas de DE&I. Me interesaba escucharlos hablar sobre cómo la tecnología, específicamente el software de reclutamiento de diversidad, puede ayudar. El "cómo" es la parte más difícil de la ecuación de responder, y el G2 sobre diversidad solo está encontrando más preguntas.
Claramente, la tecnología no es la panacea para aumentar la diversidad en todas las industrias. Sin embargo, nos permite hacer cosas de una manera que antes no era posible. Puede ayudar a los profesionales de RRHH a identificar problemas y su escala; no obstante, puede presentar desafíos adicionales en el camino. Un tema surgió a lo largo de las sesiones sobre diversidad en HR Tech: la necesidad de entender qué hay bajo el capó, o más bien, qué hay dentro de la caja negra.
El problema de la caja negra de la IA
Dentro y fuera del lugar de trabajo, estamos confiando cada vez más en los sistemas de inteligencia artificial (IA) para tomar decisiones en nuestro nombre. Desde Alexa de Amazon hasta recomendaciones personalizadas de compras en línea, nuestras vidas se ven impactadas diariamente por estos sistemas. Aunque la IA está incrustada en nuestra vida cotidiana, estos sistemas no son en absoluto opacos. No podemos ver dentro de la caja negra, o el algoritmo, y por lo tanto no podemos entender cómo se toman las decisiones. Esto generalmente se hace evidente después de que se encuentra sesgo dentro de una solución.
¿Qué es la caja negra?
Una caja negra es un sistema que puede entenderse en términos de sus entradas y salidas; sin embargo, debido a la naturaleza propietaria de los datos, hay poca información sobre el funcionamiento interno del sistema.
A principios de este mes en TWIMLcon en San Francisco, Khari Johnson, escritor senior de personal de IA de VentureBeat, moderó un panel sobre la operacionalización de la IA responsable. En un artículo de seguimiento sobre el panel, amplió la idea de que la falta de información sobre cómo operan los sistemas de IA resulta en sesgo y puede dañar a personas reales de maneras serias.
Mientras consideraba centrarse en el usuario, Guillaume Saint-Jacques, ingeniero de software senior de LinkedIn, insistió en que miremos más allá del sesgo y consideremos el daño potencial que los sistemas de IA sin control pueden causar. Rachel Thomas, directora del Centro de Ética de Datos Aplicados, proporcionó ejemplos de algoritmos que cortan erróneamente beneficios de Medicaid o despiden ciegamente a maestros basándose en datos defectuosos.
CONSEJO: No todo es advertencia y precaución cuando se trata de IA. Rebecca Reynoso desglosa los beneficios y riesgos de la inteligencia artificial y proporciona ejemplos de la industria. |
El potencial de daño y sesgo en la IA no conoce límites. La IA que ayuda a mejorar el reclutamiento de diversidad ha hecho titulares recientemente. Amazon pasó años construyendo un sistema de reclutamiento de IA que tuvo que desechar después de que mostró sesgo contra candidatas que son mujeres. El modelo clasificó a los candidatos basándose en 10 años de currículums. La mayoría de los currículums eran de hombres; por lo tanto, el sistema consideró a los hombres más calificados cuando se clasificaron junto a candidatas que son mujeres.
Diversificando la tecnología
Han pasado cinco años desde que el CEO de Apple, Tim Cook, escribió una carta a los empleados prometiendo que la compañía sería "tan innovadora en avanzar la diversidad como lo somos en desarrollar productos". Como WIRED informó recientemente, la industria tecnológica ha hecho muy poco progreso en términos de iniciativas de contratación de diversidad. Hoy en día, las fuerzas laborales que componen Apple, Facebook, Google y Microsoft siguen siendo abrumadoramente hombres (blancos o asiáticos). Según Freada Kapor Klein, socia fundadora de la firma de capital de riesgo Kapor Capital, hay barreras para lograr los objetivos de diversidad acechando en cada esquina.
Las empresas necesitan abordar los sesgos profundamente arraigados en su cultura antes de poder mejorar sus prácticas de contratación. Actualmente estamos enfrentando una especie de círculo vicioso. La tecnología tiene un problema con la diversidad. La tecnología está creando sin querer soluciones de IA sesgadas que dañan, ignoran o desprecian a una variedad de humanos. La tecnología necesita una gama diversa de individuos para construir e instituir IA responsable. La tecnología no parece poder hacer avances reales en la expansión de su grupo de talentos. Y sin embargo, estamos constantemente innovando y expandiendo las capacidades de la IA. ¿Puede la IA ayudar a diversificar el grupo de talentos?
Reimaginando RRHH
Según el informe Global Talent Trends 2019 de la firma de consultoría Mercer, el 88% de las empresas ya utilizan IA en RRHH. La mayoría de estas empresas emplean soluciones de IA en forma de chatbots para candidatos y empleados, gestión del rendimiento, planificación de carrera y selección o evaluación de candidatos.
Un número creciente de soluciones de selección y evaluación basadas en IA que las empresas utilizan o están considerando ya incluyen características de diversidad. El mercado para esta tecnología solo crecerá. Ya hay muchas empresas implementando estas soluciones. Durante otro panel en HR Tech sobre RRHH en la Era de la Inteligencia Artificial, Jennifer Carpenter, vicepresidenta de adquisición de talento global para Delta, dijo que implementar tecnología de evaluación impulsada por IA permitió a Delta duplicar el número de candidatos que llegaron a las entrevistas finales.
Durante la parte de preguntas de esa sesión, un asistente preguntó al panel si "auditan el algoritmo" en busca de errores o problemas. Carpenter dijo que a medida que aumentaba el pipeline de Delta, prueban y verifican constantemente que sus algoritmos carecen de sesgo evidente. Mientras tanto, Jean Smart, vicepresidenta de reclutamiento global en Hilton Hotels, atestiguó que su equipo prueba continuamente sus sistemas en busca de errores. La relación de Hilton con el proveedor es de responsabilidad mutua. Si encuentran sesgo, error o daño, comparten la carga de responsabilidad con la empresa y luego lo solucionan.
Próximos pasos para la IA y la diversidad
Los esfuerzos para mejorar las prácticas de contratación que lanzan una red amplia requieren una combinación de mejorar y perfeccionar regularmente las soluciones disponibles, implementar software de reclutamiento para mejorar el proceso y validar continuamente su inocuidad. Con las grandes mentes actualmente en tecnología y el talentoso grupo de candidatos diversos ansiosos por trabajar, hay un gran potencial para la mejora y el desarrollo de estas herramientas invaluables.
¿Quieres aprender más sobre Software de Reclutamiento de Diversidad? Explora los productos de Diversidad en Reclutamiento.

Courtney Moran
Courtney is a former G2 senior research analyst for HR technologies, whose coverage areas include recruiting, employee engagement, and talent management. Her comprehensive research on employee engagement and HR trends has been quoted in TechRepublic, among other publications.