Los algoritmos comenzaron a tomar decisiones que afectan nuestras vidas y sus respuestas, basadas en datos generados por humanos, pueden estar marcados por sesgos históricos de sexo, de clase, étnicos o xenófobos
- 3 minutos de lectura'
Ha llegado el momento en que la inteligencia artificial toma decisiones que afectan a nuestras vidas: si se nos elige para un empleo, si se nos concede una hipoteca, si nos aceptan en una universidad, si podemos cruzar una frontera, si la policía debe vigilarnos antes de que cometamos un delito, el precio de una póliza sanitaria. El algoritmo se convierte en un juez que no da posibilidad de apelación. ¿Por qué no me suben el límite de la tarjeta de crédito? Porque el ordenador me lo impide, dirá el empleado bancario, todavía de carne y hueso. ¿Y puedo saber por qué el ordenador lo impide? No intente averiguar cómo funciona, será la respuesta.
Un gran debate en torno a la inteligencia artificial es si está libre de prejuicios –sería lo esperable, pues un programa debe responder a datos objetivos–; o si, por el contrario, las máquinas reproducen nuestras manías, porque aprenden de nosotros, que las tenemos. La conclusión de quienes lo han estudiado es que, incluso cuando aprenden solas, la IA asume el sesgo de la sociedad que analizan. Sesgos históricos de sexo, de clase, étnicos, xenófobos.
No es una especulación: está estudiado. Como en el informe Gender Shades, que en 2018 detectó que los programas de reconocimiento facial fallaban más con mujeres y minorías étnicas. El programa Watson, de IBM, se equivocaba hasta un 35% de las veces en mujeres negras, pero solo un 1% con hombres blancos. La compañía creó un equipo para corregir a Watson; redujo los errores, pero no ha conseguido erradicarlos.
Un asunto más delicado: la inteligencia artificial aplicada a la defensa o al orden público. En las guerras ya se utilizan drones que no solo se dirigen a un objetivo, sino que lo eligen. La policía ya empieza a trazar perfiles de sospechosos mediante IA: trata de anticiparse a delitos que nadie ha cometido todavía.
Podemos perfeccionar los programas, liberarlos de nuestros arraigados recelos hacia lo diferente, pero hay un problema de base: qué datos sirven para que la máquina aprenda a tomar decisiones. Si son los datos históricos de criminalidad en EE.UU., por ejemplo, arrastramos siglos de sesgo racista allí, y no solo allí. Si son los datos de solvencia económica en cualquier lugar, se verá el efecto de siglos de patriarcado.
Catherine D’Ignazio, profesora de Ciencia en el MIT y autora del libro Data Feminism, lo tiene claro. “Los datos no serán neutrales jamás porque nunca son datos ‘crudos’. Están producidos por seres humanos que vienen de lugares determinados, tienen sus propias identidades, sus historias particulares y que trabajan en instituciones concretas”.
La cuestión de fondo es si la inteligencia artificial tiene que responder a cómo somos o, mejor, a cómo queremos ser.
Otras noticias de Inteligencia artificial
Más leídas de Tecnología
Clave. Los trucos de WhatsApp más simples y prácticos que son fáciles de aplicar
Infancias. Cómo activar el "modo Peter Pan" en WhatsApp
Similares a los Ray-ban de Meta. Samsung tendrá su línea de anteojos inteligentes en 2025
Cuidado. Qué significa quitar la foto de perfil en WhatsApp, según un psicólogo