Jornada IA+Igual en la Universidad de Navarra: El verdadero reto de la IA en la gestión del talento es construir modelos éticos de aprendizaje automático
IA+Igual y su partner académico, la Universidad de Navarra (UNAV), han organizado el evento ‘Vamos a jugar con la IA’ en la que seis expertos en people analytics, machine learning, innovación, recursos humanos, comunicación y auditoría algorítmica han compartido con un grupo de directivos de RR.HH. información sobre cómo utilizar la IA en los procesos del área de talento.
La sesión Vamos a jugar con la IA ha sido un ejercicio práctico de “iteración” con la inteligencia artificial: un reducido grupo de profesionales del área de gestión de personas ha podido ver una herramienta, en este caso de IA generativa, en funcionamiento, entender su lógica de “razonamiento” y comprender por qué esta tecnología les necesita tanto como a los técnicos que la desarrollan.
Organizado en el campus de la Universidad de Navarra en Madrid y con la participación de su Instituto de Ciencia de los Datos e IA (DATAI), partner académico de IA+Igual, el encuentro buscó transmitir a los asistentes no sólo el potencial de esta tecnología para hacer más eficientes los procesos de gestión de talento, sino también cómo dotarles de mayor explicabilidad para que sea una herramienta confiable para la toma de decisiones. Un ejemplo muy sencillo ilustra el trasfondo del encuentro: “Podemos utilizar un martillo para clavar un clavo o para golpear a alguien. La herramienta es la misma, pero el uso es diferente. La IA es también una herramienta. El reto está en definir estratégicamente qué uso vamos a hacer de ella”.
Alberto García Galindo, experto en Fair Learning de DATAI, abrió la jornada con una introducción al Machine Learning. Ello le ha permitido explicar cómo, a través de la programación algorítmica, los datos se transforman en patrones, estos en modelos y estos, a su vez, en predicciones. A este respecto, ha alertado sobre la tentación de antropomorfizar la IA ya que “si bien es una tecnología que intenta replicar el pensamiento humano, no es ella la que toma las decisiones, sirve de apoyo a quien tiene que tomarlas”. Por eso, ha finalizado llamando la atención sobre el verdadero reto de la aplicación de la IA específicamente en el campo de la gestión del talento, que no es otro que el de construir modelos de aprendizaje automático éticos basados en cuatro pilares: robustez, equidad, transparencia y confiabilidad. “Esto se traduce en validar los datos que alimentan el algoritmo para que no presente sesgos que deriven en algún tipo de discriminación por género, raza, etc. y que sea posible auditarlo para conocer cómo se toman las decisiones”, ha señalado.
A continuación, Ana Valera, experta en Data Analytics y miembro del consejo de IA+Igual, ha planteado una demostración práctica de iteración con IA generativa -en este caso, con ChatGPT- para demostrar cómo la intervención humana es necesaria para poner en contexto lo que entrega e identificar posibles sesgos en sus propuestas.
“El uso de los datos puede ayudar a tomar mejores decisiones, más justas y objetivas. Pero no está exento de sesgos -asegura Valera-. Las empresas deben cerciorarse de que sus empleados no puedan introducir datos confidenciales en herramientas de IA y asegurarse de que les están dando la formación necesaria para que sean capaces de discernir las ventajas y limitaciones del uso de la IA”, subraya la experta en análisis de datos.
En línea con el ejemplo de Valera, Ambrosio Nguema, experto en LLM y miembro del Consejo Asesor de IA+Igual, ha desarrollado un algoritmo en Phyton para la sesión que ha permitido evidenciar no sólo cómo puede facilitar la automatización del proceso sino, sobre todo, cuál es el espacio que evidencia el valor de RR. HH en la programación y aprendizaje de los modelos.
Ambrosio Nguema y Ana Valera
Un proyecto de innovación para dar confiabilidad a la IA en RR. HH
Félix Villar, socio de IN2 y experto en auditoría algorítmica, ha clarificado que, aunque estos modelos pueden ayudar a mejorar la productividad, las empresas se enfrentan a un dilema: “Es difícil que una organización pueda realizar un desarrollo propio y, lo habitual, es contratar un proveedor que quizá ha entrenado el modelo del algoritmo con 200.000 datos de un lugar geográfico concreto, aunque lo use para empresas de todo el mundo”, ha expuesto Villar, quien es, también, uno de los promotores de IA+Igual.
Marisa Cruzado, líder del proyecto IA+Igual y experta en innovación social, ha señalado que Recursos Humanos se enfrenta al reto de entender la inteligencia artificial. “Para liderar el proceso de transformación que ya se está produciendo, los responsables de RR. HH deben convertir las herramientas de IA en un copiloto necesario que les facilite la información necesaria para su toma de decisiones, de una manera rápida, eficiente y confiable. Desde IA+Igual estamos testando un modelo de auditoría algorítmica que sentará las bases de un futuro modelo de certificación. Trabajamos desde el presente, con la mirada puesta en un futuro que sea diverso y en el que la tecnología nos dé soporte para para conseguir los objetivos de equidad e igualdad de oportunidades en el ámbito laboral, de una forma ética, transparente y confiable”.
Y finalmente, Maite Sáenz, experta en gestión de RR. HH, ha advertido de que “cuando decimos que los algoritmos alucinan en realidad hemos de convencernos de que quienes alucinamos somos nosotros”. Los sesgos inconscientes que comprometen los principios de robustez, equidad, transparencia y confiabilidad referidos por Alberto García son actos reflejos propios del razonamiento humano que trasladamos a la inteligencia artificial con la misma inconsciencia con la que los vivimos en nuestra vida cotidiana. Precisamente, el objetivo de IA+Igual es auditar algoritmos para garantizar la equidad en la diversidad”.
El cierre del evento ha corrido a cargo de Iván Cordón, líder del equipo de DATAI y experto en Innovación tecnológica, que ha puesto sobre la mesa la necesidad de que sean “equipos multidisciplinares y multidiversos quienes pongan coto a los sesgos que todos tenemos y que la IA reproduce”. Ha concluido dando una vuelta más al hilo del evento, al afirmar que “la tecnología es una herramienta y no sustituirá al profesional de Recursos Humanos que aprenda a utilizarla, pero sí sustituirá a quienes no sepan hacerlo”.
Iván Cordón, Maite Sánez, Félix Villar, Ana Valera, Marisa Cruzado, Ambrosio Nguema y Alberto García