Las empresas recurren a la inteligencia artificial para su política salarial, pero aún es imprescindible la supervisión humana para evitar sesgos o errores
- 7 minutos de lectura'
¿Cuál es el salario justo? ¿Puede la inteligencia artificial establecerlo? Kotaro Hara, profesor de ciencias de la computación en la Universidad de Singapur, cree que la primera pregunta plantea “un problema que necesita ser resuelto con urgencia”. Al fin y al cabo, un pacto de rentas es una de las soluciones propuestas ante la situación de crisis actual. A esto se une la precarización extrema de sectores menos cualificados —empleados en reparto o tareas domésticas pueden ganar entre 9 y 14 euros por hora— y, en el frente contrario, la guerra salarial abierta para atraer a los trabajadores más vinculados a sectores tecnológicos, donde más demanda se registra. La segunda cuestión —si puede la inteligencia artificial establecer el salario justo— tiene respuestas contradictorias: sí, porque puede aportar las herramientas para establecer cuánto se paga por una tarea determinada; pero no, porque sin supervisión humana, el algoritmo puede llevar a decisiones equivocadas. Aun así, muchas empresas empiezan a utilizar la inteligencia artificial para fijar sus políticas salariales.
Kotaro Hara investiga la posibilidad de desarrollar una ecuación que permita establecer un salario justo para tareas sin cualificar, pero parte de una premisa: es necesaria la interacción entre personas y computadoras. De la misma opinión son Josep Capell, director de Ceinsa, empresa finalista de los premios InnovaRH por una aplicación que propone un salario adecuado para cada puesto, y Juan Ignacio Rouyet, profesor de la Universidad Internacional de La Rioja (Unir) y consultor principal de Quint para estrategias tecnológicas.
Un estudio de un equipo alemán publicado el 29 de septiembre en Patterns avala esta cautela al concluir: “Las personas perciben una decisión como más justa cuando los humanos están involucrados”. En este sentido, Christoph Kern, de la Universidad de Mannheim y coautor del estudio, afirma: “Como era de esperar, la toma de decisiones completamente automatizadas no se ven favorecidas. Lo interesante es que, cuando hay supervisión humana sobre la toma de decisiones automatizada, el nivel de equidad percibida se vuelve similar a la toma de decisiones centrada en el ser humano”.
La inteligencia artificial se nutre de las bases de datos para saber cuánto se paga en el mercado para una actividad determinada. Pero ahí faltan parámetros. ¿Se debe ganar lo mismo en Cádiz que en Barcelona por la misma labor? ¿Es igual reponer, por ejemplo, de noche que de día? ¿Debe cobrar lo mismo alguien con experiencia que quien acaba de empezar? ¿Puede pagar lo mismo una pyme que una gran empresa? La aplicación de Ceinsa incorpora estos condicionantes mediante un diálogo entre el empleador y el programa. “Nosotros hacemos que la aplicación tenga en cuenta las características singulares”, explica Capell.
Pero esto es una base. Como explica el directivo, muchos camareros se quejan de que se le paga igual a alguien sin formar que a una persona experimentada. O que no se tiene en cuenta el recorrido de cada trabajador en la empresa, el valor que añade por su competencia o capacidad de alcanzar los objetivos. “Eso es mucho más complicado, pero seguramente, a la larga, será el siguiente paso”, afirma.
No sólo es una cuestión de dinero
El dinero no lo es todo en el mercado laboral, pero es clave. Diego Velázquez, programador de una empresa multinacional que no quiere ser identificada, cumple ahora 22 años. Estudió un módulo de formación profesional, hizo las prácticas hace un año en la compañía para la que trabaja y empezó siendo el más joven de su unidad. Hoy es el más veterano. La cercanía de la sede y las posibilidades de teletrabajar el 80% del tiempo le han hecho mantenerse, mientras sus compañeros han sido captados por otras tecnológicas con subidas de entre 300 y 500 euros al mes. Él se lo llegó a plantear hace seis meses, pero le subieron el salario en 200 euros mensuales, suficiente para continuar, aunque le sigue rondando la idea. “Recibo ofertas todos los días”, afirma.
“Hay que tener en cuenta”, explica Capell, “la parte retributiva, que es el fijo más variables, la formación, el desarrollo, el reconocimiento, la conciliación de la vida personal y la vida profesional, la retribución flexible o beneficios sociales… Pero la parte retributiva es higiénica y hay que tenerla ordenada. Está muy bien que te dejen teletrabajar, que te formen, pero siempre que el salario sea correcto, esté equilibrado, tenga equidad con el resto de los puestos de la organización y, además, te permita mantener un nivel de vida correcto. El teletrabajo y la flexibilidad ya se dan por supuestos. Está muy bien tener todo eso, pero dame el dinero que necesito para mi calidad de vida”.
El directivo afirma que el modelo ideal es aquel en el que ganan la empresa y el trabajador: “Si los dos ejes están muy desequilibrados, es difícilmente sostenible en el tiempo”. Y añade también la transparencia como clave para que la organización sea flexible en función de las circunstancias. “Es el modelo para ir avanzando: que sea justo y sólido, que permita tanto la supervivencia de la organización como que el trabajador no sea quien tenga que sufrir la pérdida del poder adquisitivo”.
Se trata de evitar lo que el economista Jan Eeckhout denomina “la paradoja de las ganancias” (título de su obra The profit paradox), cuyos efectos se extienden a los trabajadores y también a los consumidores: “En lugar de transmitir las ventajas de las mejores tecnologías a los consumidores, las empresas superestrella las aprovechan para lograr márgenes de beneficio aún mayores. Las consecuencias son enormes, desde precios innecesariamente altos para casi todo, hasta la existencia de menos empresas emergentes para competir, pasando por el aumento de la desigualdad y los salarios congelados para la mayoría de los trabajadores y la movilidad social altamente limitada”.
De esta forma, la inteligencia artificial para establecer el salario justo es una herramienta necesaria, pero no suficiente. Aporta información que se necesita para tomar la decisión más adecuada, pero también encierra peligros: el sesgo del programador si establece una etiqueta de género, edad u origen, por ejemplo. Ceinsa, según asegura su director, las excluye de su aplicación para definir los puestos de la manera más objetiva posible. Pero Capell advierte: “Yo no cedería la decisión solo a la máquina, a la inteligencia artificial”.
De la justicia algorítmica al despotismo digital
El profesor de la Unir Juan Ignacio Rouyet coincide. “Establecer un salario en función de la inteligencia artificial es técnicamente viable y, de hecho, ya se está haciendo. Éticamente, se puede hacer siempre y cuando tengamos claros algunos principios como, por ejemplo, que sean transparentes los criterios en virtud de los cuales se están estableciendo esos valores salariales. La inteligencia artificial automatiza ciertos procesos, pero lo importante es saber cuáles son esos criterios y que intervenga el ser humano, que sea, al final, una persona quien decida”. “¿Quién volaría en un avión sin piloto, aunque se pueda?”, pregunta.
El experto en estrategias tecnológicas añade que este elemento es fundamental también para establecer la responsabilidad, que nadie se ampare en que la máquina ha tomado una decisión porque esta no es “aséptica”: “Se alimenta de datos y puede contener más de hombres que de mujeres o de una titulación determinada o diseñar el algoritmo de una u otra manera”. “Si la justicia fuese cuestión de un algoritmo, ya lo habríamos desarrollado”, aclara como ejemplo.
Confiar decisiones de trascendencia social a una máquina lleva a lo que el profesor denomina “despotismo digital”. “Ya lo estamos viviendo porque tenemos algoritmos cuyo cometido es trabajar supuestamente por nuestro bien, pero sin contar con nosotros. Para evitarlo hay que reclamar nuestros derechos. El procedimiento por el cual una organización decide el sueldo debe seguir siendo el mismo, solo que, ahora, se tiene la información; pero el mecanismo de decisión no puede eliminar al ser humano”.
Y dos elementos fundamentales más que advierte Rouyet: la supervisión humana no puede ser aleatoria, tiene que recaer en “alguien que realmente sepa dónde se están produciendo los sesgos; y la inteligencia artificial tiene que ser explicable: si esta dice que el puesto x tiene un rango salarial, que sepamos explicar por qué”. “Un responsable puede tomar la decisión de contratar a alguien tomando como datos de entrada, como una variable más, el resultado que dé la inteligencia artificial, pero es una herramienta. Luego, nosotros decidimos”, concluye.
Otras noticias de Inteligencia artificial
Más leídas de Tecnología
Clave. Los trucos de WhatsApp más simples y prácticos que son fáciles de aplicar
Infancias. Cómo activar el "modo Peter Pan" en WhatsApp
Similares a los Ray-ban de Meta. Samsung tendrá su línea de anteojos inteligentes en 2025
Cuidado. Qué significa quitar la foto de perfil en WhatsApp, según un psicólogo