Prácticas vergonzantes: a las pedradas con la mano invisible
"Seamos realistas: Alice Wu fue la economista más importante de 2017", tuiteó hace poco Tyler Cowen, creador de Revolución Marginal, un popular blog sobre economía. Alice Wu no es ministra de ningún país, no ha ganado ningún premio rimbombante, y ni siquiera tiene una dilatada carrera académica ni profesional. Es una jovencísima graduada de licenciatura de la Universidad de Berkeley, que con una montaña de datos, poderosos algoritmos y una inteligente estrategia de investigación, destapó una auténtica caja de Pandora con su tesis de graduación, en relación con los estereotipos de género entre los economistas académicos.
A fin de apreciar la magnitud del hallazgo de Wu, imagine el lector la página web de cualquier departamento académico, de cualquier disciplina y universidad. En algún lugar encontrará un link que dice "profesores", con un listado de sus miembros, sus fotografías y breves descripciones de sus logros académicos. Y así verán que, por ejemplo, para el profesor Marcelo Rodríguez (los nombres son ficticios, obviamente) la información diría algo así como "Obtuvo su doctorado en la Universidad de California, se especializa en aprendizaje automático y sus artículos han sido publicados aquí y allá, y es autor de tal o cual libro". Y en otro lugar aparecerá la profesora Andrea González (también de nombre ficticio), con doctorado en la Universidad Carlos III, que se especializa en análisis numérico y que ganó este o aquel premio. Todo bastante predecible, y un poquito aburrido. ¿Estereotipos? Nada por aquí.
Ahora imagine que en esa página web, de casualidad, detecta un link secreto, que conduce a otra página con la misma estructura que la anterior, pero que en vez de las asépticas descripciones mencionadas anteriormente, acerca del profesor Martínez dice: "Un genio, gran candidato al Nobel, una máquina de publicar papers", y que debajo de la profesora González dice: "Está re-fuerte, es una histérica, nadie sabe cómo el marido la soporta".
Palabras más, palabras menos, Alice Wu encontró ese link secreto; un portal a un mundo oscuro que muestra que el lenguaje institucional de las universidades se desvanece al centímetro de alejarse de ellas, revelando la existencia de un monstruo que todos conocen, pero pocos quieren mostrar: los estereotipos de género.
Claramente, existe una diferencia de lenguaje de acuerdo con el ámbito. Así, un comentario emitido en el marco de un seminario, tal como "interesante trabajo, si bien tengo algunas reservas metodológicas", puede mutar en "una basura total, no sé cómo tiene la caradurez de presentarlo" en el mingitorio del baño, a no más de dos metros del aula de la presentación del paper.
Lo que hizo Alice Wu fue algo así como la versión computacional de esconderse en todos los baños de todas las universidades, a fines de registrar las diferencias en las formas en las que los economistas académicos se refieren a hombres y mujeres.
El "baño" en cuestión es el blog "Economics Jobs Market Rumors" (rumores sobre el mercado laboral de los economistas), un sitio web anárquico en donde alguno que otro chisme relevante (a fulano le hicieron una oferta de trabajo de tal lugar; mengana se va de acá para allá, etcétera) ocurre en el medio de un mar de obscenidades que en lo escatológico no tiene nada que envidiar al baño de una estación de tren abandonada. Y siempre desde el anonimato, el salvoconducto que todo cobarde necesita para hacer su tarea con tranquilidad.
El punto de partida fueron las 2.217.046 entradas del blog. La primera tarea consistió en clasificar cada post en "referido a género" o "neutral". Por ejemplo, un post que dice "el profesor Ramírez es un idiota" hace referencia al género de alguien, no así uno que dice "el algoritmo de k-medias tiene serios problemas de convergencia", que debería ser catalogado como neutral.
Está claro que no es conducente hacer esta inspección "a mano", leyendo cada uno de los más de 2 millones de posts. Alice Wu programó y entrenó un algoritmo computacional para llevar a cabo esta tarea. "Text mining" es el nombre que recibe esta técnica de análisis de textos, uno de los éxitos arrolladores de big data y aprendizaje automático.
El primer paso consistió en definir palabras que refieren al género en forma directa, como: él, ella, mujer, hombre, esposa, marido, etcétera. Posteriormente, un post es clasificado como "de mujer" si contiene una de las palabras que refieren al género femenino; "de hombre" si tiene referencias al género masculino, y "neutral" si no aparece ninguna de estas referencias. Esta aparentemente simple tarea requiere mucha "sintonía fina": chequeos y rechequeos milimétricamente documentados por Wu en su tesis, incluyendo lidiar con posibles ambigüedades, de posts que refieren a hombres y mujeres.
Y acá empieza el baile. Wu implementó un algoritmo de clasificación (como los que se usan para ver si a una persona se le da un crédito o no) para estudiar qué palabras predicen mejor que el post se refiere a una mujer y cuáles a un hombre.
Los resultados son alarmantes. Las palabras que mejor predicen que el post se refiere a un varón son: macroeconomía, supervisor, director y homosexual. Las tres primeras remiten a cuestiones obviamente profesionales, no así la cuarta. Y aquí viene el escalofriante hallazgo de Wu. Las que mejor predicen un post sobre una mujer son: atractiva, casada, embarazada, linda, hermosa y tetas. Sí: ninguna de ellas se refiere a ninguna característica profesional.
Lo que Wu pone sobre la mesa es evidencia verificable, reproducible y medible de un fenómeno que, antes de su investigación, quedaba relegado al ámbito de las habladurías, esas que todo el mundo escuchó, pero que nadie puede (o quiere) usar en ningún contexto destinado a mejorar la precaria situación de las mujeres en lo que respecta a igualdad de género en el ámbito académico. Porque no hay nada mejor que una anécdota para refutar otra anécdota.
En agosto de 2017, Justin Wolfers publicó un explosivo artículo en el New York Times ("Evidencia de un entorno tóxico para las mujeres en la economía"), relatando en términos simples los hallazgos que el artículo de Wu describe en el lenguaje quirúrgico de toda investigación seria. Escándalo mayúsculo. Las críticas (que las hay) no tardaron en llegar, y también los halagos, como el de Tyler Cowen, citado al comienzo de esta nota.
No se trata de matar al mensajero. Estas vergonzantes prácticas ocurren en todo contexto y disciplina. La contribución de Wu fue poner sobre la mesa una forma sistemática de cuantificarlas, que puede ser fácilmente implementada para medir la intensidad y monitorear la evolución de estas costumbres despreciables en todo ámbito, más allá de la economía.
Es una historia con final feliz. Alice Wu fue admitida en el prestigioso y selectivo doctorado de la Universidad de Harvard, dio decenas de entrevistas y en enero pasado fue oradora invitada del congreso de la American Economic Association (tal vez el más importante de la profesión). Todo, producto de una tesina de licenciatura, una pila de datos y algunos algoritmos. Y un montón de visión y talento.
No hay que apelar a ningún algoritmo estrafalario para predecir que Alice Wu hará una carrera estelar y que en unos años veremos su fotografía profesional en la página web de una prestigiosa universidad, institución gubernamental o empresa de tecnología. Y también que aparecerá algún comentario soez y misógino que sobre ella hará algún envidioso, amparado en el anonimato de un oscuro blog; la mano invisible que no hace falta esconder para poder seguir tirando piedras a troche y moche.
El autor es profesor de la Udesa e investigador del Conicet