Los algoritmos no tienen la culpa
Nuevo lustro, nuevas palabras mágicas y conceptos demonizados. La epidemia ha plagado la revolución digital desde sus inicios. Recuerdo, por ejemplo, que a mediados de la década del ‘80 la buzzword era (¿están sentados?) "multimedia". Una computadora estaba buena solo si era multimedia. Eso significaba que venía con tarjeta de audio y era capaz de leer CD. No, no películas en DVD. Sino discos compactos y CD-ROM.
Durante muchos años, desde la aparición de las primeras computadoras personales, pero en particular con la llegada de Internet al gran público, se puso de moda el término "interactivo". Si no era interactivo, nada, olvidate, una porquería. Para entonces, los programas, salvo excepciones (procesos de sistema en segundo plano, por ejemplo), siempre eran interactivos. Los sitios web son, por definición, interactivos (de nuevo, salvo algún caso raro). Pero quedaba super bien decir que algo era interactivo. Luego la moda pasó. Pero otras palabritas mágicas vinieron a ocupar su lugar.
En los ‘90, cuando las computadoras estaban empezando a mostrar que no eran una moda pasajera, los que se sentían intimidados por tener que aprender nuevas destrezas (usar el procesador de texto, por ejemplo) empezaron a divulgar un concepto teóricamente revolucionario que convertiría la PC en algo obsoleto. Eran las set-top boxes, solo que no aplicadas a ver TV, sino destinadas a hacer "computación fácil". Muy linda idea. Convertir una máquina poderosa y llena de posibilidades en un electrodoméstico semejante a la TV. Como oportunamente predije, no prosperó.
Más recientemente, y tras la aparición del iPhone, todo lo móvil se puso de moda. No importaba demasiado si el sujeto entendía las nuevas reglas de juego (ventanas no solapables, por ejemplo), todo tenía que ser mobile. Desde hace algún tiempo, se habla de "las redes", así, en plural, para referirse a las redes sociales; y en la misma oración el sujeto puede pronunciar la frase "publicó un twitter" sin sonrojarse en lo más mínimo. Tomen nota: es tuitear (o twittear). No es "El Twitter", es "Twitter", a secas. Es "posteó en su cuenta de Twitter" no "posteó en su Twitter", porque no es suyo, es de una sociedad anónima que cotiza en el NYSE con el símbolo TWTR. O "publicó en su TL", para quedar bien geek.
El fenómeno opuesto es el demonizar conceptos. Típicamente, la Deep Web, a la que se presenta como un aguantadero de narcos, traficantes de armas, pedófilos y demás. Está mal. La Deep Web está constituida por todos los sitios en los que los buscadores no pueden entrar y, por lo tanto, no son capaces de indexar. Por ejemplo, una base de datos bibliográfica sobre himenópteros a la que solo se puede acceder con nombre de usuario y contraseña. Deberían habituarse a usar la frase Dark Web, para referirse al submundo delictivo de la Web, que, previsiblemente, trata de ocultarse.
Y si hay una palabra injustamente demonizada es "hacker". Ya escribí y dije en reportajes muchas veces que un hacker no es un delincuente. Es todo lo contrario. Por lo tanto, no insitiré. Acá van un par de links con los motivos por los que usar hacker como sinónimo de pirata está muy mal y por qué es muy difícil evitar el uso del verbo hackear.
Hoy sale pasta
Pues bien, a esta larga tradición de palabras que se ponen de moda y de otras que se usan con significados desviados ha venido a sumarse el término "algoritmo", y, con más frecuencia, "los algoritmos". He oído incluso el término "algorritmo", que no solo no existe y no solo suena a banda de música bolichera, sino que demuestra que cuando se trata de nuevas tecnologías algunos comunicadores ni siquiera se toman el trabajo de echarle un vistazo al diccionario.
Como dice el DRAE, un algoritmo es un conjunto ordenado y finito de operaciones que permite hallar la solución de un problema. Añadiría, como figura en Wikipedia, que se trata de una especificación no ambigua para hacer cálculo, procesar datos y para el razonamiento automático. Es decir que, como concepto, no es el cuco, no es super complicado. Salvando las distancias, podríamos simplificar esto y decir que una receta es un algoritmo. Si no cocinás los fideos antes de servirlos, no es pasta. No sé qué es, pero no es pasta. Es decir, el orden importa.
Cocinarlos significa ponerlos en agua hirviendo, no en querosén o en nitrógeno líquido. Tampoco podés tirarlos directo sobre las brasas, digamos. Por lo tanto, no existe ninguna ambigüedad respecto de qué significa cocinar cuando hablamos de pasta. Luego, el número de operaciones para preparar un plato de fideos con salsa de tomate es finito. De otro modo, nunca llegaríamos a comer nada.
Ahora bien, la diferencia fundamental entre los algoritmos y las recetas de cocina (aparte, en general, de sus resultados) es que algunos algoritmos toman decisiones, y que esas decisiones pueden afectar nuestras vidas. ¿Por qué? Porque los algoritmos son –casi siempre– creados por personas que viven en ciertos contextos. Así que sí, los algoritmos son capaces de reproducir prejuicios y formas de ver el mundo. Pueden asimismo contener errores, y esos errores, repetidos a escala industrial por máquinas que hacen cómputo a velocidades incomprensibles, pueden conducir a un desastre.
En octubre de 2015, Regina Múrmura fue asesinada cuando Waze encontró una ruta rápida que, por desgracia, atravesaba una favela en Río de Janeiro. En febrero de 2017, Google Maps cometió el mismo error y una ciudadana argentina, Natalia Lorena Cappetti, también fue baleada. Falleció un mes después. En marzo de 2018, Elaine Herzberg fue atropellada por un coche autónomo de Uber; murió poco después en el hospital.
Es cierto que si usamos algún ingrediente tóxico en nuestra pasta, también nuestras vidas van a verse afectadas. El problema es que no podemos crear un Anmat para el software, porque entonces los avances técnicos se frenarían en seco. No porque la Anmat esté mal; por el contrario, nos salva la vida todos los días. Sino por la escala y la velocidad, y porque también hay algoritmos capaces de escribir algoritmos. ¿Qué haríamos con eso?
Es un clásico de estos tiempos: un desafío que conduce a una paradoja. En todo caso, algo es claro: los algoritmos no tienen la culpa. Al responsabilizarlos, en lugar de señalar a ejecutivos y organizaciones, invisibilizamos el problema. Como suele ocurrir, es más cómodo culpar a los algoritmos, como es cómodo culpar a los videojuegos por la violencia. Pero en uno y otro caso sus pecados (tanto como sus aciertos, para ser enteramente justos) son el reflejo de los nuestros. En tal caso, además de revisar el código, deberíamos mirarnos al espejo.