Desarrollan un modelo IA que garantiza decisiones sin sesgos en áreas clave como salud, educación y contratación
Investigadores de la Universidad de Navarra presentan esta nueva metodología de predicción que podría ayudar a gobiernos y empresas a eliminar discriminaciones algorítmicas y asegurar la equidad en decisiones críticas

FotoManuel Castells/De izquierda a derecha: Alberto García Galindo, Marcos López De Castro y Rubén Armañanzas Arnedillo.
18 | 02 | 2025
Investigadores del Instituto de Ciencia de los Datos e Inteligencia Artificial (DATAI) de la Universidad de Navarra han presentado una innovadora metodología que mejora la equidad y confiabilidad de los modelos de inteligencia artificial utilizados en la toma de decisiones críticas. Se trata de decisiones que tienen un gran impacto en la vida de las personas o en el funcionamiento de las organizaciones, como ocurre en áreas como la salud, la educación, la justicia o la contratación.
El equipo, formado por los investigadores Alberto García Galindo, Marcos López De Castro y Rubén Armañanzas Arnedillo, ha desarrollado este nuevo sistema que optimiza los parámetros de modelos de aprendizaje automático confiables. Estos modelos son algoritmos de IA que realizan predicciones de una manera transparente asegurando ciertos nieles de confianza. Con esta contribución, los investigadores proponen una metodología capaz de reducir las desigualdades relacionadas con atributos sensibles como la raza, el género o el nivel socioeconómico, entre otros.
Machine Learning, una de las principales revistas científicas en el campo de la inteligencia artificial y el aprendizaje automático, publica este estudio que combina técnicas avanzadas de predicción con algoritmos inspirados en el proceso de la evolución natural (aprendizaje evolutivo) que, además de ofrecer niveles de confianza rigurosos, también garantizan una cobertura equitativa entre diferentes grupos sociales y demográficos. Esto significa que este nuevo modelo de IA ofrece el mismo nivel de confiabilidad sin importar las características de los individuos, asegurando resultados justos y sin sesgo.
"El uso extendido de la inteligencia artificial en ámbitos sensibles ha generado preocupaciones éticas debido a posibles discriminaciones algorítmicas", explica Armañanzas Arnedillo, investigador principal de DATAI de la Universidad de Navarra. "Nuestro enfoque permite a las empresas y los responsables de políticas públicas elegir modelos que equilibren eficiencia y equidad según sus necesidades, respondiendo a las regulaciones emergentes. Este avance se enmarca en la apuesta de la Universidad de Navarra por impulsar la filosofía de la IA responsable, promoviendo el uso ético y transparente de esta tecnología”.
Aplicación en escenarios reales
El método fue probado con éxito en cuatro bases de datos reales relacionadas con ingresos económicos, reincidencia criminal, readmisión hospitalaria y admisiones escolares. Los resultados demostraron que los nuevos algoritmos podían reducir significativamente las desigualdades sin comprometer la precisión de las predicciones. “En nuestro análisis comprobamos, por ejemplo, sesgos llamativos en la predicción de admisiones escolares, evidenciando una falta de imparcialidad significativa basada en el estatus financiero familiar”, apunta Alberto García Galindo, investigador predoctoral de DATAI de la Universidad de Navarra y primer autor del artículo. “A su vez, estos experimentos demostraron que, en muchas ocasiones, nuestra metodología consigue reducir dichos sesgos sin comprometer la capacidad predictiva del modelo. En concreto, con nuestro modelo encontramos soluciones en las que la discriminación prácticamente se redujo por completo, manteniendo la precisión de las predicciones”. Además, la metodología ofrece una ‘frontera de Pareto’, “que permite visualizar las mejores opciones disponibles según las prioridades y comprender, para cada casuística, como la equidad y la precisión algorítmicas se relacionan”.
Según los investigadores, esta innovación tiene un amplio potencial de aplicación en sectores donde la IA respalde la toma de decisiones críticas de manera confiable y ética. García Galindo, señala que su “metodología no solo contribuye a la equidad, sino que también permite una comprensión más profunda de cómo la configuración de los modelos influye en los resultados, lo que podría guiar futuras investigaciones en la regulación de algoritmos de IA”. Con este objetivo, los investigadores han puesto a disposición pública el código y los datos del estudio para fomentar la investigación y la transparencia en este campo emergente.