Predecir dónde nacerán personas en situación vulnerable. Identificar el patrón de una crisis epidemiológica y predecir el próximo brote. Predecir dónde se realizará el próximo delito. Automatizar a quién se le asigna un beneficio social. Identificar automáticamente criminales en nuestras calles. Predecir la distribución eficiente de la energía eléctrica.
Parece ciencia ficción, pero es la promesa de lo que hoy se conoce como inteligencia artificial . Y si bien puede sonar a otra moda tecnológica, más de 30 países -incluyendo a la Argentina- han comenzado el desarrollo de estrategias nacionales para impulsar la adopción de estas técnicas. Las inversiones son cuantiosas e incluyen a grandes empresas, estableciendo plataformas donde se pueden desarrollar los algoritmos necesarios para esta nueva ola de productos y aplicaciones. La fuerza de esta agenda no puede ser ignorada por gobiernos y sociedades. En el centro de esto se encuentran los datos. Para entrenar y usar modelos algorítmicos se requieren datos que permitan esto. Para predecir si una persona pagará (o no) un préstamo, requiero de su información crediticia previa, su dirección, datos sobre su trabajo y educación que tal vez me permitan desarrollar modelos más certeros de riesgo. Esos datos -muchos de ellos personales- no están disponibles para todas las personas y no han sido recogidos necesariamente para este fin. Los datos podrían contener sesgos, que una vez automatizados dejarán sin acceso al crédito a miles de personas. O sin acceso a beneficios sociales a poblaciones enteras. O identificarán -erróneamente- a personas que no son delincuentes en las calles. Los algoritmos detrás de estas aplicaciones son tan buenos como los datos que se tengan disponibles.
En un mundo donde solo unos pocos tengan datos y control sobre este tipo de técnicas los problemas pueden ser múltiples, particularmente en su aplicación a la esfera pública. ¿Qué resguardos deben tomar las sociedades democráticas del sur del mundo frente a estos desarrollos? Primero, desarrollar marcos normativos y éticos que aseguren el resguardo de los derechos fundamentales de las personas. La exclusión, la discriminación o la lesión de derechos no es un resultado aceptable de la aplicación de estas técnicas, particularmente en el sector público. Las personas deberían poder saber y eventualmente optar porque sus datos no sean procesados automáticamente, y la aplicación de estas técnicas no debería servir para replicar estructuras que de por sí ya discriminan a población altamente vulnerable.
Segundo, asegurar la transparencia de los mecanismos detrás de los algoritmos, documentando con claridad su uso, diseño y datos utilizados para su entrenamiento. Esto permite un adecuado escrutinio por parte de la sociedad, la academia y la industria. Idealmente una entidad -con legitimidad democrática- debería establecer un control de aquellos. Tercero, dimensionar las esperanzas y usos de estas técnicas habilitando la experimentación pública. ¿Vale la pena automatizar un proceso? ¿Es mejor al proceso que existía anteriormente? Cuarto, adoptar un principio de precaución en caso de no entender las consecuencias sociales y políticas de una tecnología. A modo de ejemplo, la ciudad de San Francisco (EE.UU.) ha puesto una moratoria en la adopción de sistemas de reconocimiento facial.
Y finalmente considerar una gobernanza de datos y procesos adecuada que permita a quienes innovan en el sur desarrollar soluciones adecuadas a su contexto y necesidad, y no solo beneficie a un pequeño grupo de empresas. Los efectos de la automatización ya están entre nosotros, pero aún queda tiempo para que la automatización ayude al desarrollo y no meramente replique la desigualdad y la exclusión en nuestras sociedades.
Director ejecutivo de la Iniciativa Latinoamericana por los Datos Abiertos, ILDA
Fabrizio Scrollini
LA NACION