Por qué las asistentes virtuales como Siri, Cortana o Alexa tienen voz femenina
Hace unos 4 años pasé un tiempo viviendo en Estados Unidos. Mientras estaba allá teníamos una agenda muy ajustada que me ocupaba casi todo el día, pero aunque los horarios eran intensos, cuando podía me hacía tiempo para visitar una amiga que vive en la ciudad donde yo paraba.
Algo que me divertía mucho de su hogar era la cantidad de dispositivos tecnológicos que tenía: la heladera, el lavarropas y la luz, entre otras cosas, podían controlarse desde el celular, por comando de voz y contaban con inteligencia artificial. Uno de los dispositivos que más me interesaba era el Amazon Echo, en ese momento estaba en su primer generación y estaba dentro de las novedades en Estados Unidos. Para quienes no lo conocen, es un parlante que te conecta a un asistente virtual, Alexa. Cada vez que entraba a la casa de mi amiga, lo primero que hacía era decir en inglés (porque Alexa no entendía español; ahora sí lo hace) "Hola Alexa" y recibía una amable respuesta del dispositivo. Luego le pedía que pusiera alguna canción de fondo mientras conversaba con mi amiga: "Alexa, reproducí Bohemian Rhapsody de Queen" y Alexa lo hacía.
Los asistentes virtuales permiten que por medio de comandos de voz podamos interactuar con nuestros dispositivos sin necesidad de tocarlos. De la misma forma que le pedirías a alguien que reproduzca una canción de Spotify en tu casa o que te indique cómo llegar a algún punto de la ciudad es que podes interactuar con la inteligencia artificial que representan Alexa, Cortana y Siri y pedirles que hagan tareas por vos o te den indicaciones. A medida que aumentan los avances en Inteligencia Artificial, cada vez más los gigantes de Silicon Valley compiten en la carrera para llegar a cada hogar, bolsillo y auto. Esta carrera no es sólo para traerte el mejor servicio que puedas encontrar y decidas comprar sus productos sino, como todos los que saben están haciendo, para tener más y mejores datos nuestros.
En otro episodio de "cosas que no nos detenemos a analizar" no fue hasta hace un tiempo corto que caí en la cuenta que asistentes virtuales como Alexa de Amazon, Cortana de Microsoft y Siri de Apple tienen algo en común, todas están programadas para tener voz de mujeres (sí, pueden tomar voces de hombres, pero no en forma predeterminada). A nivel mundial las mujeres representan solo el 5% de los CEOs de Fortune 500 y menos del 10% de los top inversores de empresas tecnológicas, pero no nos preocupemos: parece que tenemos el trabajo de asistentes virtuales guardado para nosotras.
Cuando se les pregunta a estas empresas sobre los por qué detrás de que sus asistentes tengan voces femeninas nos encontramos con respuestas como las que referentes de Amazon y Microsoft dieron en su entrevista con PCMag:
"Probamos muchas voces con nuestro programa beta interno y clientes antes de lanzar y esta voz fue la mejor" - Amazon.
"Para nuestros objetivos -construir una asistente útil, de apoyo y confiable- una voz femenina fue la elección más fuerte" - Microsoft.
Sus estudios afirman, entre otras cosas que:
- Todos los géneros consideran a las voces femeninas más cálidas.
- Las mujeres generalmente se consideran de mayor ayuda en un sentido servicial.
- Las voces con un tono más alto, como el de las mujeres, son más simples de comprender.
Veamos en contraposición lo que sucede con la inteligencia artificial de IBM, Watson, que cuenta con una voz masculina. El contexto de Watson implica su interacción con médicos en tratamientos de cáncer; basándose en distintos estudios IBM definió que la voz de Watson, al ser la de un líder, debía ser masculina, debía ser "segura de sí misma" y hablar con frases cortas y definitivas. Características atribuidas al género masculino.
Más allá de que estos estudios sean reales y efectivamente hayan sido realizados obteniendo esos resultados, no tenemos que olvidar que se hacen en un contexto específico, con influencias culturales, con sus construcciones y naturalizaciones, donde se posiciona a mujeres y hombres cumpliendo roles específicos que nada tienen que ver con cuestiones biológicas, sino con construcciones sociales. No es sorpresa que estos estudios sigan perpetuando roles sociales establecidos, como resalta el estudio realizado por los científicos Armin Falk y Johannes Hermle en diferencias de género y decisiones: "todo estudio que no contemple el rol significativo que tiene el ambiente social sobre las respuestas de sus participantes, es un estudio incompleto".
Estamos siendo testigos de cómo la escena de la inteligencia artificial y los asistentes virtuales sigue perpetuando estereotipos de género que vemos en la sociedad. El ejercicio de nuestro pensamiento crítico en estos escenarios es un paso fundamental. Necesitamos desafiarlos: así como entrenamos a la inteligencia artificial en todas las interacciones que tiene con nosotros, también somos moldeados por estas interacciones al hacerlo. En ejemplos simples, ni Siri, ni Alexa, ni Cortana necesitan un "por favor" cuando reciben un pedido. Ser amable o respetuosos están descartados de la conversación. Todas estas asistentes pueden tomar los pedidos más extraños, perversos y oscuros, y lo harán con un amable tono de voz o con una respuesta graciosa, como podemos ver en este video de personas acosando sexualmente a Siri.
Ese video puede ser divertido para algunos, pero es perturbador escuchar cuan similar ese lenguaje es al que las mujeres deben escuchar casi todos los días al caminar por la calle sufriendo acoso callejero cada dos cuadras. Es la misma expectativa social que suponía, hasta hace no tanto, que simplemente había que aceptarlo, y sonreír mientras sucedía. De todas las respuestas que Siri podría dar, como por ejemplo, "dejá de preguntarme eso porque es inapropiado" y exponer que lo que le están preguntando no está bien, su respuesta por defecto es hacer chistes. Su programación es hacer chistes. ¿Y quién programa a Siri? Bueno, en su mayoría son hombres blancos de EE.UU.
Mientras la inteligencia artificial entra en la parte doméstica de nuestro mundo, existen serias consecuencias personales y sociales al tratarlas de la forma que el sistema permite. Por más que nuestra interacción sea con dispositivos y no con personas reales, no se puede dejar de lado el hecho de que ese interlocutor digital sigue siendo una referencia femenina. Las empresas tienen que tomar responsabilidad en sus desarrollos y nosotros necesitamos tomar conciencia de cómo estos desarrollos también nos moldean.