Algoritmos. Cuando las máquinas piensan por nosotros
La inteligencia artificial ha logrado poner en pausa como nada antes el libre albedrío de los humanos: ¿hasta dónde es razonable dejar en sus manos nuestras decisiones?
- 10 minutos de lectura'
En la más reciente de un tipo de noticia que hasta hace poco habría sonado a ciencia ficción, una organización de aficionados al mountain bike de Escocia lanzó un alerta acerca de que Google Maps estaba sugiriendo “rutas altamente peligrosas, incluso para ciclistas experimentados”. (Actualización: desde la publicación de esa advertencia, Maps modificó sus sugerencias para evitar esas rutas peligrosas.)
Es un hecho. Casi sin darnos cuenta hemos dejado cientos de decisiones cotidianas en manos de los algoritmos. Es cómodo y es práctico. Funciona. Funciona incluso muy bien. ¿Pero qué tan inofensivo es resignarnos a que las máquinas decidan por nosotros?
El proceso empezó hace medio siglo. Es un dato poco conocido, pero el primer cerebro electrónico disponible comercialmente fue el Intel 4004, diseñado en 1971 para una calculadora electrónica de escritorio de la firma japonesa Busicom; la bisabuela de todas las computadoras. Al año siguiente, con la HP-35, la primera calculadora de bolsillo, estos dispositivos empezaron a estar todo el tiempo mano. Así, poco a poco, fuimos dejando atrás una destreza que durante generaciones había sido patrimonio de la persona civilizada: sacar cuentas a mano.
Las máquinas sí pueden fallar. Esto es así debido a un número de razones, desde las más elementales (un error de programación) hasta las más exóticas
En apariencia, sacar cuentas no es algo que requiera mucha inteligencia. Se trata de una tarea mecánica en la que las máquinas son ciertamente más eficientes. Pero al dejar atrás esa habilidad también perdimos (con mucha más lentitud y de forma todavía más subrepticia) nuestra capacidad de verificar si lo que había hecho la electrónica era correcto o no. Pasamos así de usar a depender y de depender a confiar a ciegas.
En algún momento, no sin razón, aceptamos que las máquinas no se equivocan. Es verdad, una calculadora o una computadora no cometerán errores humanos; no se distraerán ni se cansarán, no se olvidarán de un resto, no meterán la pata con la tabla del 9. Pero hay al menos dos cosas que pueden salir mal. Primero, que se equivoque el humano que opera la máquina. Medio siglo después del 4004, observo en mi cátedra Internet para Periodistas de la Universidad de Palermo que no pocos alumnos asientan la respuesta que les haya dado la calculadora, por muy absurda que sea, sin reflexionar en cómo llegaron a ese guarismo por completo imposible.
Segundo, las máquinas sí pueden fallar. Esto es así debido a un número de razones, desde las más elementales (un error de programación) hasta las más exóticas (una críptica, pero a la larga desastrosa decisión de ingeniería que hoy afecta todos los chips de Intel, IBM y ARM fabricados a partir de 1996; ver aquí y aquí). Las máquinas se equivocan, solo que no lo hacen como los humanos. Pero se equivocan.
Hay algo más, no obstante. Abandonar la aritmética no pareció causar demasiado daño. Por desgracia, la manipulación de números, aunque no es nuestra habilidad más refinada, obliga a cierto grado de abstracción. Quizá no seamos buenos sacando cuentas, pero nos mantiene en forma para una de las destrezas intelectuales más elevadas: el pensamiento abstracto. La abstracción, más que la matemática por sí, es una de las grandes lagunas de la educación hoy, y abarca no solo las ecuaciones, sino también la filosofía, la psicología, la economía o la crítica literaria.
¿Sueñan los androides?
Las calculadoras evolucionaron en un proceso denominado miniaturización, y los cerebros electrónicos, que al principio tenían unos pocos miles de transistores pasaron a tener miles de millones. Aumentó con eso la capacidad de cálculo, es decir, el número de cuentas que la máquina hace a cada segundo; pasamos de un puñado a varios billones. Por segundo.
La miniaturización es un factor clave. Una PlayStation es más potente que las supercomputadoras de la década de 1980, que pesaban varias toneladas. Así que a una capacidad de cálculo sobrehumana se le sumó la movilidad. Sobre esa ola se subió otra, la de los sensores. Un celular hoy es capaz de ver y oír, y también percibe los campos magnéticos, la presión ambiental, la temperatura, el movimiento y su posición exacta, por medio de satélites de GPS, entre otras cosas.
Finalmente, oculto y poco comprendido, está lo que llamamos código; es decir, los programas, el software. La electrónica no hará nada por sí, porque las computadoras son antes que ninguna otra cosa máquinas programables. Al revés que un martillo o una bicicleta, no tienen una función específica. Excepto la de ser programables. Así, podemos usarlas para chatear, usar correo electrónico, leer las noticias, ver videos, sacar fotos, oír música, escribir una novela, entretenernos con un jueguito, participar de las redes sociales, hacer compras, y así. La lista es, de hecho, inconclusa por definición.
También podemos programar las computadoras para que simulen cierto grado de inteligencia. La llamamos inteligencia artificial (IA), aunque no es un inteligencia generalista, como la humana. Pero ha tenido éxitos rutilantes: nos venció al ajedrez y al go, y también en el complejo certamen de preguntas y respuestas Jeopardy!, de la TV estadounidense, en 2011. Como las calculadoras, la IA nos superó con la fuerza bruta informática, esta vez en tareas que solo parecían aptas para humanos.
¿Pero saben las máquinas lo que están haciendo? Si la respuesta es no (y definitivamente es no), entonces tenemos un frente de tormenta. Porque, contrariamente a lo que se cree, la IA no es un fenómeno circense, raro y exótico, en el que el coloso cibernético despedaza a la criatura humana. Los algoritmos están presentes en cada instante de nuestras vidas. Nos sugieren las películas para ver en Netflix, y eso nos resulta práctico; tan práctico como la calculadora. Pero tiene un costo. Para mostrarnos esas películas es menester que oculte otras. ¿A qué llamamos exactamente realidad cuando está mediada cada vez más por mentes sintéticas?
"En 2019, un coche autónomo de Uber atropelló a Elaine Herzberg, una ciclista de 49 años, en Arizona, Estados Unidos, y le causó la muerte"
Nos preocupamos por publicar en ciertos horarios en Twitter o Instagram, pero la IA le concede más o menos visibilidad a los posts de acuerdo con un número de variables opacas sobre las que las compañías no dan mayores explicaciones. De esa decisiones no solo dependen nuestros “likes”, sino también la economía de miles de pequeñas y medianas empresas, que quedan atrapadas en el razonar hermético de los circuitos.
Esto ya es preocupante, pero la inteligencia artificial va más allá al intervenir en el mundo real. Las apps de navegación por GPS nos sugieren la ruta más conveniente, y la mayor parte de las veces aciertan. Pero en 2015 Waze (que Google había adquirido en 2013) envió a Regina Múrmura por un camino que atravesaba una favela en Río de Janeiro, donde fue baleada, y murió. Lo mismo le ocurrió, en 2017, esta vez con Maps, a la argentina Natalia Cappetti. Cuatro años después, esta app de Google sigue en la mira por no tomar en cuenta que más rápido no necesariamente significa mejor.
En 2019, un coche autónomo de Uber atropelló a Elaine Herzberg, una ciclista de 49 años, en Arizona, Estados Unidos, y le causó la muerte. Dos años después, en mayo, un coche autónomo de Waymo (otra empresa de Google) puso a un pasajero en una situación altamente peligrosa durante 35 minutos porque se confundió con unos conos de señalización y empezó a tomar decisiones por las suyas. Malas decisiones. Pésimas decisiones. La crisis solo terminó cuando llegó un empleado (humano) de Waymo y tomó el volante. Vaya lección.
La paradoja artificial
Concedido: los avances técnicos siempre nos han colocado en situaciones riesgosas. Pero, por poner un ejemplo, la aviación comercial habría sido inviable (y profundamente inmoral) sin las estrictas regulaciones que rigen esta industria; es decir, si la única directriz hubiera sido el avance técnico.
Sin embargo, esa es la situación paradójica en la que se encuentran hoy las autoridades respecto de la inteligencia artificial. ¿Cómo regular una actividad que supera por varios órdenes de magnitud la capacidad de pensar de los reguladores? Watson, el sistema de aprendizaje automático de IBM (el que ganó al Jeopardy!), es capaz de leer un millón de libros por segundo. Hoy Watson habita en la nube de internet, no en una supercomputadora que puede ser aislada. Una vez le pregunté a un ejecutivo de la compañía qué ocurriría si a Watson se le diera por escaparse. “Tendríamos un problema”, admitió.
Pero el corazón de todo este asunto es que los algoritmos carecen de iniciativa, al menos con el estado actual de la tecnología. Es uno de los territorios donde todavía prevalecemos. Podemos decidir si seguimos o no las sugerencias de la inteligencia artificial. Para eso tenemos que ser conscientes de que esas decisiones artificiales están siendo tomadas todo el tiempo por nosotros, y por lo tanto, en términos regulatorios, la encerrona persiste. Por primera vez una tecnología humana va tan rápido que no podría progresar si pusiéramos humanos a fiscalizar su desarrollo. Dato: la IA es capaz de crear IA. Es decir, hay algoritmos que crean algoritmos, al vuelo, para resolver problemas nuevos en tiempo real. ¿Cómo regularíamos eso?
Incluso las venerables –pero, ahora se ve, ingenuas– leyes de la robótica de Asimov no nos sirven. ¿Cómo hacerle comprender las muchas dimensiones de conceptos como “dañar” y “lastimar” a una inteligencia que carece de consciencia y de cuerpo? En la ciencia ficción funciona. En el mundo real, las cosas son más complicadas.
Hasta acá podríamos sentirnos más o menos tranquilos: la IA sigue siendo la sospechosa de siempre, como toda nueva tecnología. Skynet una vez más. Nada nuevo. Pero la historia no termina en máquinas inteligentes que toman decisiones por nosotros y pueden equivocarse horriblemente. De ser así, podríamos resolver el conflicto con la Jihad Butleriana que Frank Herbert propone en su novela Duna; la guerra contra las máquinas pensantes, la total prohibición del cómputo artificial.
El problema es que la IA no solo se equivoca, sino que acierta, y acierta tanto que se ha vuelto funcional a la civilización. Sin ir más lejos, durante la pandemia de Covid-19 ayudó a comprender el virus, a tratar la enfermedad, a predecir su propagación, y, por supuesto, a diseñar vacunas. Pese a que está salvando millones de vidas, este es solo un ejemplo entre miles. Google (de nuevo) acaba de poner a uno de sus sistemas de inteligencia artificial, llamado AlphaFold, a analizar el genoma humano; aunque no está libre de críticas, conducirá, aseguran los científicos, a tratamientos para enfermedades que hoy no sabemos cómo curar, y que nos llevaría décadas investigar sin la ayuda de la IA.
Así que no es tan simple como apagar las mentes sintéticas y volver a tomar nuestras decisiones diarias como antes. Como ocurre con toda tecnología nueva, debemos ser conscientes de sus riesgos. Paradoja dentro de la paradoja, cuanto más sabemos sobre computadoras y programación (especialmente si aprendemos estos conceptos en la infancia) más alertas podemos estar sobre una familia de tecnologías a la que llamamos inteligencia artificial y que por primera vez en la historia ha logrado lo que ni los más despiadados regímenes autoritarios pudieron: poner en pausa nuestro libre albedrío. ¿Cuándo fue la última vez que tomaste una decisión sin ayuda de los algoritmos? ¿Estás seguro?