Ninguna disciplina logrará por sí misma implementar la inteligencia artificial en los estados; representantes de varias profesiones se reunieron un foro referido a este desafío
"Un matemático, un programador, una bióloga, una funcionaria pública, un estadístico y una economista suben a un avión?", parece ser el comienzo de uno de esos chistes trillados sobre estereotipos de profesiones. Pero, en este caso, describe al "combo" argentino que participó de la conferencia Data for Policy, que tuvo lugar recientemente en Londres y cuya temática giró en torno al uso de inteligencia artificial en el sector público, y de la cual participó el autor de esta nota.
La majestuosidad de los salones de la prestigiosa University College London fue el marco en el que coincidieron científicos de datos de zapatillas y jeans de colores con funcionarios públicos de riguroso traje y canas visibles. Alegóricamente, a metros del salón de la conferencia, el famoso "auto icono" de Jeremy Bentham (una suerte de cuerpo momificado con cabeza de cera, que reproduce fiel y espeluznantemente al filósofo británico) contrastaba con los posters de investigaciones en ciencia de datos y política pública, repletos de gráficos y términos esotéricos de la jerga espesa de big data.
La cautela imperante en el ambiente es un promedio injusto entre las visiones extremas de los "tecnoptimistas" (como acertadamente los caracterizó uno de los oradores centrales) y el escepticismo de los funcionarios públicos. Los primeros creen que la labor de los organismos tradicionales -como el Indec- tiene los días contados a la luz del diluvio de big data. Los segundos resaltan el sinfín de barreras legales, éticas y comunicacionales que son propias de la gestión pública.
El equipo argentino presentó resultados del proyecto Manos en la Data (MeD), una iniciativa conjunta de CAF-Banco de Desarrollo, la oficina del Sistema de Información, Evaluación y Monitoreo de Programas Sociales (Siempro) y la Fundación Sadosky, una institución público- privada que facilita la adopción de tecnologías informáticas en la sociedad. El objetivo de MeD fue aceitar la interacción entre funcionarios públicos y científicos de datos, intentando negociar las enormes barreras operativas y de lenguaje que existen entre estos mundos diversos.
Lejos de la chanza del comienzo de esta nota, si hay un acuerdo que surgió enfáticamente de la conferencia es la naturaleza interdisciplinar del análisis moderno de datos. Jon Crowcroft, de la Universidad de Cambridge, dijo a los funcionarios presentes: "No escuchen a los académicos, a la industria ni a los consultores. ¿A quiénes deberían escuchar? A todos en conjunto, pero con una cuota de escepticismo". Y es en este sentido que el equipo de MeD incluyó a personajes aparentemente disímiles, como Soledad Cubas, funcionaria pública y Directora Nacional de Siempro y a Carlos Sarraute de la empresa Grandata, un prestigioso matemático especialista en inteligencia artificial.
De los proyectos presentados por el equipo argentino sobresale uno liderado por el programador Andrés Vázquez, entonces director de sistemas de información e innovación de la Municipalidad de Córdoba. Un problema preocupante para los ciudadanos de Córdoba es que los micros se desvían de sus rutas programadas, por interrupciones en el trafico provocadas por manifestaciones políticas, accidentes, baches u otros inconvenientes. Sobre la base de información georeferenciada, el equipo de Vázquez diseñó una herramienta informática para detectar en tiempo real las discrepancias entre el recorrido programado y el efectivo de los micros, y puso a disposición de los ciudadanos una app para celulares que permite trackear esta información instantáneamente.
Por su parte, Carlos Sarraute contó los logros de un equipo interdisciplinario (con contraparte en el Ministerio de Trabajo) con el cual diseñó un mapa dinámico de accesibilidad. Concretamente, la tarea encarada fue utilizar información online para medir cuán lejos está cualquier ciudadano de la ciudad de Buenos Aires de destinos relevantes como hospitales o escuelas. Se trata de una herramienta crucial para el diseño de políticas sociales, que permite detectar falencias de acceso a servicios públicos.
La interacción entre el optimismo del sector informático y la cautela del Estado no es trivial. Más que a ayudar, a veces la adopción apresurada de herramientas de ciencia de datos puede conducir a agigantar errores para los cuales los mecanismos tradicionales (como las encuestas) ofrecen algún tipo de control.
A modo de ejemplo, suena tentador construir índices de precios en base a técnicas de scrapping, que "chupan" precios de sitios online. Dichos métodos permitirían monitorear la inflación en tiempo real y a costos menores que los basados en encuestas, como los usados por casi todos los organismos oficiales. La tesis doctoral de Manuel Bertolotto, recientemente defendida en la Universidad de San Andrés, muestra que el uso de datos de scrapping subestima la inflación real. Afortunadamente, Bertolotto propone un ingenioso mecanismo para sortear este problema. Es la interacción entre expertos de campos aparentemente disimiles, como la economía, la sociología, las disciplinas del comportamiento, el marketing, la computación y la matemática lo que señala estas dificultades y propone soluciones efectivas.
Las cuestiones éticas y de transparencia ocuparon un lugar central en la agenda de Data for Policy. Las consecuencias del escándalo de Cambridge Analitica y Facebook y del episodio de Donald Trump y Huawei, sobrevuelan cualquier intento de avanzar inescrupulosamente en el uso de datos masivos e inteligencia artificial a nivel de gobierno. Velar por estas cuestiones éticas y legales es uno de los principales desafíos que enfrenta el paradigma de big data en el sector público. El reciente libro del autor de esta nota (Big Data, Siglo XXI Editores) presenta una extensa discusión de cómo, más que nunca, entender el costado ético y legal de la tecnología es tan importante como hacerlo con sus detalles matemáticos y computacionales.
La "ley del mínimo", enunciada hace más de un siglo por Justus von Liebig, afirma que el crecimiento de un organismo (de una planta, por ejemplo) no está determinado por la cantidad de recursos disponibles (luz, agua, etcétera) sino por el más escaso de ellos, algo así como el "una cadena es tan fuerte como su eslabón más débil" de la ecología. Esta ley implica una suerte de "no linealidad": a fines de que una planta crezca, ninguna cantidad de agua permite compensar la falta total de luz.
Cuando en el viejo chiste: "¿Cuántos matemáticos (o sociólogos, o programadores) hacen falta para cambiar una lamparita?" se reemplaza la tarea referida por "implementar un proyecto de ciencia de datos en el estado", la respuesta viene dada por la ley de Liebig: ninguna disciplina lo logrará por sí misma. La complejidad de la cosa pública es irreproducible fuera de ella y la esencia del funcionamiento del estado no pude adivinar las oportunidades de la revolución de big data. Son un matemático, un programador, una bióloga, una funcionaria pública, un estadístico, una economista y un auténtico equipo interdisciplinario los que permitirán aprovechar las ventajas de la nueva tecnología de datos sin que aparezcan sus limitaciones.
El autor es profesor en la Udesa
Otras noticias de Innovación
Más leídas de Economía
Habrá cambios. Cuánto costará el dólar tarjeta en enero
Advertencia. El CEO de una cadena francesa de supermercados no quiere comprar carne del Mercosur
Excelencia Agropecuaria. A pura emoción, se consagraron los mejores del campo en 2024
Plazo fijo. Cuál es la tasa de interés banco por banco este miércoles 20 de noviembre