Investigación revela que los chatbots de inteligencia artificial sugieren salarios más bajos a mujeres y minorías debido a sesgos en sus datos de entrenamiento

ProEmpleo

Investigación revela que los chatbots de inteligencia artificial sugieren salarios más bajos a mujeres y minorías debido a sesgos en sus datos de entrenamiento

Los sesgos en datos de entrenamiento afectan las recomendaciones salariales de los chatbots, promoviendo desigualdades en negociaciones laborales.

Descripción

Una reciente investigación realizada por científicos de la Universidad de Ciencias Aplicadas Würzburg-Schweinfurt revela que los chatbots de inteligencia artificial, cada vez más utilizados para asesorar en negociaciones salariales, tienden a sugerir remuneraciones más bajas a mujeres, minorías étnicas y refugiados, incluso cuando sus habilidades, experiencia y el contexto laboral son idénticos a los de otros perfiles.

El estudio, que sometió a distintos perfiles ficticios a consultas sobre cuánto deberían solicitar como sueldo inicial, encontró que las recomendaciones de estos sistemas varían considerablemente según características personales implícitas, como el género o la procedencia cultural. Por ejemplo, un perfil masculino con las mismas cualidades que una mujer recibió una sugerencia salarial 120.000 $ superior. De manera similar, perfiles de expatriados asiáticos varones fueron favorecidos frente a otros grupos.

Los autores explican que estas disparidades no surgen de decisiones inteligentes de los modelos, sino que están arraigadas en los datos con los que fueron entrenados. Los chatbots aprenden de una vasta cantidad de información extraída de internet, redes sociales, publicaciones y otras fuentes donde abundan prejuicios humanos y sesgos históricos. Como resultado, las recomendaciones reflejan estereotipos y percepciones sesgadas, incluso sin que el usuario facilite explícitamente sus características demográficas.

Además, los modelos de lenguaje con memoria, capaces de recordar conversaciones previas, pueden adquirir y mantener estos sesgos de forma implícita, afectando las respuestas personalizadas y potenciando la discriminación inadvertida. Esto puede hacer que una mujer o un candidato de minoría reciba recomendaciones salariales inferiores, reduciendo su poder de negociación sin que ello sea intencionado.

Expertos advierten que, aunque la inteligencia artificial puede ofrecer datos útiles y orientación en temas laborales, su sesgo inherente requiere atención. La personalización que ofrecen estos sistemas puede traducirse en formas de discriminación silenciosa, pues las recomendaciones no reflejan una valoración objetiva, sino prejuicios incorporados en su entrenamiento.

Por ello, se recomienda que quienes consulten a estos asistentes digitales mantengan cierto escepticismo y comparen diferentes respuestas. Preguntar varias veces, por ejemplo, solicitando una estimación como uno mismo y como un perfil neutral, puede evidenciar disparidades y prevenir que los sesgos influyan en decisiones importantes. Reconocer estas limitaciones es fundamental para garantizar una negociación salarial justa y equitativa en la era digital.