En junio de 2015 un usuario de Google Photos descubrió que el programa etiquetaba a sus amigos negros como gorilas: la inteligencia artificial (IA) era incapaz de distinguir una tez oscura de otra. Después de las disculpas, la compañía de Silicon Valley mostró su solución: quitar del buscador a los gorilas. Las explicaciones llegaron más tarde. Los algoritmos habían heredado los prejuicios que los programadores, una mayoría de hombres blancos, habían filtrado en las bases de datos que alimentaba el servicio. Lejos de cerrar el caso, los argumentos detonaron una seguidilla de preguntas inquietantes. ¿Qué pasaría si, ante un choque inminente, la IA de un auto no tripulado se viera forzada a elegir entre atropellar a una persona blanca o a una negra? La respuesta más probable -un escándalo de incorrección en la era de la corrección política- escalaba el asunto a niveles insospechados.
La irrupción masiva de la IA en la vida cotidiana empezó a desnudar más dilemas incómodos. A principios del año pasado, una investigación de la Universidad de Darmouth confirmó el sesgo racista de Compas, el sistema que usan los jueces estadounidenses para apoyar sus decisiones y ya revisó el historial de más de un millón de convictos. La conclusión es que Compas desaconsejaba la libertad de los negros -a quienes además perjudicaba con falsos positivos, pronosticando más reincidencias que las reales- con mayor frecuencia que la de los blancos, a quienes beneficiaba con falsos negativos. Una explicación posible: el programa trabaja con bases de datos de la policía, propensas a tratos diferenciados según el color de piel.
"Las fallas de los sistemas de IA se basan en el aprendizaje automático: la capacidad de aprender qué acciones tomar a partir del uso de datos", explica Viviana Cotik, docente e investigadora del Departamento de Computación de la UBA. Cuando ese entrenamiento es sesgado, el sesgo se traslada al sistema. "Si la estadística dice que la mayoría de los acusados de un crimen son personas negras, el sistema asume que es más probable que los culpables sean negros", razona. Aunque la raza no sea una de las 137 variables que analiza Compas, datos como el barrio o el nivel educativo pueden llevar a conclusiones en esa línea, acertadas o no. "En un sistema de caja negra no sabemos qué pasa adentro", reconoce Cotik. "Y es difícil confiar si no se entiende la lógica interna".
La investigadora está inquieta con la omnipresencia de Google, un emporio cuyo sistema operativo Android hace funcionar los teléfonos de más de dos billones de usuarios. "Sabe dónde estás, de qué hablás, qué escribís, qué opinás y qué hacés en la web", advierte. Un ejemplo: las respuestas automáticas que propone Gmail. Nos lee, nos interpreta y nos sugiere tres opciones para seguir conversando.
Respuesta automática
"Hace poco hacía el mismo camino para ir al trabajo y a la noche veía la película que se me ocurría. Hoy le pregunto al celular la temperatura y la mejor opción para viajar. También me recomienda películas, no sé bien en función de qué", reconoce una fuente consultada para esta nota, temerosa de los efectos colaterales estupidizantes: "Antes conocía muy bien Buenos Aires. Ahora entro en pánico si no tengo el teléfono". Diego Fernández Slezak -director del Laboratorio de Inteligencia Artificial Aplicada (Conicet-UBA)- exculpa a las máquinas: "Como todo lo que se pone de moda, muchísima gente empieza a utilizar la IA para cualquier cosa".
La democratización de la herramienta puede romper barreras éticas y técnicas. Es lo que pasó cuando Juan Manuel Urtubey aseguró que la gobernación salteña usaría técnicas de IA para detectar qué niñas estaban "predestinadas" a quedar embarazadas. "No existían preguntas sobre anticoncepción ni educación sexual. Pero sí sobre edad, etnia, estudios, barrio de residencia, discapacidad, país de origen y abandono de estudios", escribió la periodista Natalia Zuazo en su blog Política y Tecnología. El modelo replicaba prejuicios como asociar el embarazo con la pobreza, o la promiscuidad con determinadas etnias y lugares.
De vuelta a los autos, un paper firmado por cuatro universidades estadounidenses concluyó en abril de 2018 que, el 60% de las veces, los no tripulados pasan de largo ante una señal de "pare" adulterada. Como fueron entrenados para ver patrones, los desajusta un leve cambio de simetría. "Usan IA pero no se trata de un cerebro pequeño, como nos quieren hacer creer sus fabricantes", plantea Meredith Broussard, exprogramadora, periodista y profesora en la Universidad de Nueva York. "Son sistemas de computación que a veces no reconocen obstáculos comunes". La primera vez que se subió a un vehículo autónomo, en un estacionamiento de Pensilvania, la pasó muy mal: "Primero sentí que iba a vomitar y después que iba a morir. Estábamos por chocar contra una pared de cemento cuando un conductor tomó el volante". En esos segundos febriles, quizá haya pensado en la sentencia del filósofo surcoreano Byung-Chul Han: "La máquina no es capaz de detenerse. A pesar de su enorme capacidad de cálculo, es estúpida en cuanto le falta la capacidad de vacilación".
Elon Musk, el creador de Tesla (una de las automotrices que promueven la autonomía), avisa que deberíamos temer lo que viene. Por eso impulsó con Stephen Hawking la fundación Future of Life, que persigue el desarrollo responsable de las investigaciones sobre IA bajo principios como la transparencia de fondos, la fijación de cláusulas que prioricen "el beneficio de la humanidad" y que ninguna IA pueda decidir sobre una vida humana. Bajo determinadas condiciones, cualquier sistema inteligente podría corrernos de la ecuación. Alertadas por la voz de esos científicos, cada vez más personas reclaman fiscalizar las cajas negras. ¿Qué tipo de fallas podrían tener, o estar teniendo? ¿Cuán inteligentes son las inteligencias artificiales?
Educar al robot
"Mi celular me escucha todo el tiempo", dice la misma fuente que teme a la estupidización tecnológica, en el preciso momento en que una voz artificial irrumpe en la conversación: su alarma de Google Assistant contándole el pronóstico. Sus temores -que los integrados llamarían paranoia- podrían escalar a niveles masivos si viviera en Londres, donde la policía experimenta con tecnologías de reconocimiento facial en vivo en la vía pública. Más allá de las críticas por la intrusión, el sistema detecta a un número "asombroso" de inocentes a los que define como sospechosos de crímenes, incluyendo a manifestantes, hinchas de fútbol y personas con problemas de salud mental, según una investigación de la organización Big Brother.
Las regulaciones están en una fase germinal. En noviembre del año pasado, un comité de expertos aprovechó un encuentro de alto nivel en Bruselas para recomendar al Parlamento Europeo que fomente una IA basada en decisiones éticas. También propuso crear una agencia continental que la supervise con un sistema similar al de los medicamentos. "Un sistema tiene que poder explicar por qué hace lo que hace en términos que permitan entender las razones detrás de las posibles elecciones", explica el doctor en Ciencias de la Computación Guillermo Simari.
En aquel encuentro un grupo de ejecutivos de Facebook, Microsoft y Google levantaron algunos muros de defensa antes las críticas por sus desastres en IA. "¿Queremos que los algoritmos reflejen la realidad o la corrijan?", se defendió uno de ellos. Cotik propone una inteligencia que entienda el enfoque sobre el que actúa y las variables que entran en juego en cada caso. "No tienen lo que podemos definir como intuición -recuerda Fernández- . La pregunta es cómo hacemos los humanos que hacemos IA, para que las IA modifiquen nuestros sesgos". En esa línea imagina un ente regulador que lleve un registro de cómo y con qué métodos se entrenó cada una. "Es urgente que la industria cree sus regulaciones y que los gobiernos legislen sobre la publicidad -coincide Broussard-. Tenemos derecho a conocer los efectos secundarios".
El doctor en Filosofía Diego Lawler señala una trampa en el juego de reducir la tecnología a un problema instrumental: "El ingeniero estaría en un lugar análogo al que tiene la naturaleza en la evolución; selecciona de manera neutral". Pero ese mundo independiente de nuestras valoraciones y responsabilidades es una ilusión: "Proponer un diseño tecnológico es haber ejercido un acto de libertad, creando uno y no otro. Quienes lo instrumentan son responsables de sus elecciones". En este escenario, ignorar a la inteligencia detrás del artificio es "por un lado, entregarse a un destino tecnológico que parece imponerse fatalmente; y por otro, naturalizar los polos de poder económico y político que subyacen a los sistemas que se proponen regimentar la vida social". Como subirse a un auto que, sin vacilar, puede llevarnos directo contra la pared.
Control de daños
Todos hablamos de IA. Es sexy, dirían los estadounidenses. Pero la IA falla. Y cuando falla, hace ruido. "Hay muchos investigadores haciendo sistemas de machine learning porque son económicamente efectivos", plantea el doctor en Ciencias de la Computación Guillermo Simari. Pero también son muy frágiles, algo que no preocupa al científico que dirige la división de IA de Facebook, Yann LeCun. En mayo del año pasado LeCun se mostró preocupado por la posibilidad de que las demandas crecientes por un mayor entendimiento de estos procesos frenen la innovación y desalienten la adopción de IA. "No es alquimia, es ingeniería -se fastidió ante la revista Science-. Y la ingeniería es desorganizada". Simari se indigna: "No solo no es cierto, sino que también es una forma peligrosa de pensar. Imaginemos si un ingeniero civil o un diseñador de aviones nos diera esa excusa".
Los humanos sabemos improvisar. Entendemos el contexto mejor que un algoritmo alimentado a bases de datos. La opacidad de la caja negra, en cambio, tiene secretos hasta para sus inventores. El programador conoce las bases y los algoritmos, pero las claves del proceso y del producto se le pueden escapar. ¿Podría la caja estallar en nuestras manos? Para Diego Fernández Slezak (director del Laboratorio de IA Aplicada, Conicet-UBA), es un tema de capacitación del homo sapiens. La profesora y periodista Meredith Broussard, que escribió Artificial Unintelligence (algo así como "Estupidez artificial"), opina que el entusiasmo por aplicar la tecnología computacional en cada aspecto de nuestras vidas -buscar trabajo, manejar, pagar las cuentas, elegir pareja- derivó en una cantidad enorme de sistemas de IA mal diseñados. "Tienen debilidades importantes. Imaginamos que son más poderosos de lo que son, y esa asunción es peligrosa", insiste. Desde esta perspectiva, la profecía que el matemático Alan Turing lanzó hace casi siete décadas -solo habrá una IA auténtica cuando interactuemos con ella sin saber si es una persona o una máquina- parece lejana.
Otras predicciones suenan más plausibles. Con un poder de cómputo muy superior, las computadoras tienen un potencial imbatible para lo específico y lo repetitivo. El Instituto Global McKinsey estima que 375 millones de personas (el 14% de la fuerza de trabajo global) podrían ver sus trabajos automatizados para 2030. Fernández -que trabaja con la fundación FLENI en una start up para el análisis automático de resonancias- asegura que la IA no va a reemplazar a los médicos. "No tiene sentido competir desde el punto de vista de la eficiencia y la precisión de los resultados - reconoce-, pero la computadora no responde a lo afectivo. El diagnóstico puede estar dado por una máquina, pero el profesional lo transmitirá de la forma adecuada". La investigadora Viviana Cotik desconfía: "Quien desarrolla esos sistemas no necesariamente estudió Medicina. ¿Cómo sabemos que el diagnóstico es acertado? Hacen falta comités de ética y controles de calidad". Nuevas soluciones para nuevos problemas.