Los autores de un algoritmo capaz de anticipar con un 90% de acierto los puntos calientes del crimen alertan de que un mal uso de su modelo puede perpetuar sesgos racistas
- 7 minutos de lectura'
Saber dónde se va a cometer un crimen antes de que suceda es el sueño de cualquier departamento de Policía. Los científicos de datos y expertos en inteligencia artificial quieren hacerlo realidad. Muchos cuerpos de seguridad, especialmente en EE.UU., país en el que los asesinatos a mano armada están a la orden del día, trabajan desde hace años con sistemas automatizados que procesan extensas bases de datos para detectar patrones que permitan predecir los puntos calientes de criminalidad. Un grupo de investigadores de la Universidad de Chicago, dirigidos por el profesor Victor Rotaru, ha desarrollado un modelo capaz de predecir con una semana de antelación dónde va a haber más delincuencia. La herramienta acierta en un 90% de los casos, lo que le hace destacar entre los diversos ejemplos de la llamada policía predictiva, presente en ciudades como Los Ángeles o Nueva York y operados por compañías como PredPol, Azavea y KeyStats.
Su sistema, presentado en un artículo de la revista Nature Human Behaviour, está diseñado para entornos urbanos. El modelo se entrenó con datos históricos de delitos violentos y contra la propiedad de la ciudad de Chicago, Illinois, de entre 2014 y 2016. Tras procesar esa información, se intentó anticipar las zonas con más altos niveles de criminalidad en las semanas siguientes al periodo de pruebas. La herramienta predijo la probabilidad de que ciertos crímenes, como homicidios, agresiones, asaltos y robos, ocurrieran en secciones de 300 metros cuadrados de la ciudad. Lo logró con una fiabilidad del 90%. Posteriormente, se probó el modelo en otras siete grandes urbes del país (Atlanta, Austin, Detroit, Los Ángeles, Filadelfia, San Francisco y Portland) con resultados similares.
Pero este tipo de sistemas algorítmicos, por más que se sofistiquen, no consiguen resolver un problema central: cómo tratar de no penalizar a los barrios más desfavorecidos, que en el caso del país norteamericano son mayormente poblados por vecinos negros y latinos. Se trata de un efecto perverso ampliamente acreditado por la literatura científica. Una investigación presentada el año pasado concluyó, de hecho, que es imposible que los sistemas de policía predictiva logren contrarrestar sus sesgos. Ese es uno de los motivos por los que el Parlamento Europeo ha pedido que se prohíban estas herramientas en la UE.
El equipo de investigadores que firma el estudio publicado en Nature Human Behaviour es consciente de ello. “En un intento de evitar que el uso de su herramienta acabe siendo perjudicial para algunos colectivos, los autores le dan la vuelta al concepto de policía predictiva y prescriben que sus modelos se usen para monitorizar la propia labor policial”, señala Andrew V. Papachristos, investigador del departamento de Sociología de la Northwestern University (Evanston).
Hacia departamentos de ‘precrimen’
El académico, que revisó el artículo de Rotaru y sus colegas, cree que el matiz es importante y puede ayudar a desarrollar sistemas de intervención temprana y otros esfuerzos para identificar abusos policiales, un asunto especialmente sensible en el país desde la muerte de Jorge Floyd en 2020. Opina también que puede ayudar a “enviar trabajadores sociales, equipos de respuesta y de ayuda a las víctimas a aquellos cuadrantes de 300 metros cuadrados en los que se haya detectado que habrá más disputas”.
Supongamos que una herramienta predictiva como la ideada por el equipo de Rotaru concluye que hay muchas probabilidades de que se cometa un crimen en una manzana determinada de Chicago dentro de tres días. ¿Qué se debe hacer con esa información? ¿Hay que activar una respuesta por parte de las autoridades? En caso afirmativo, ¿qué tipo de actuaciones se deben llevar a cabo y por quién? Todas estas preguntas, señala Papachristos, son tan importantes o más que la propia predicción.
“Una de nuestras preocupaciones centrales al elaborar este estudio fue su potencial para ser mal usado. Más importante que hacer buenas predicciones es cómo se van a usar estas. Enviar policía a una área no es el resultado óptimo en todos los casos, y puede suceder que buenas predicciones (e intenciones) lleven a sobrevigilancia o a abusos policiales”, escriben los autores en el artículo. “Nuestros resultados pueden ser malinterpretados como que hay demasiada policía en una zona de poca criminalidad, que normalmente será en comunidades predominantemente blancas, y demasiada poca en las de mayor criminalidad, en las que suele haber más diversidad cultural y étnica”, añaden.
“Concebimos nuestro modelo básicamente como una herramienta de optimización de política policial”, abunda Ishanu Chattopardhayay, colega de Rotaru en la Universidad de Chicago y coautor del artículo. “Por eso insistimos tanto en que hay que ser muy cuidadosos en la forma de aplicar el conocimiento que aporta”, añade. En su opinión, su algoritmo puede servir para analizar las prácticas policiales actuales y ver, por ejemplo, si se están dedicando demasiados recursos en barrios en los que a fin de cuentas no se delinque tanto como en otros.
Sobrecriminalización de negros y latinos
El hecho de que la herramienta de Rotaru y sus colegas se haya probado en Chicago es significativo. Uno de los primeros sistemas de policía predictiva de los que se tiene constancia fue el que se puso en marcha precisamente en esa ciudad en 2013. La herramienta trataba de identificar a potenciales criminales analizando datos de arrestos, tanto de los presuntos autores de los crímenes como de sus víctimas, y cruzándolos con sus redes de relaciones personales. Fue un sonoro fracaso: no ayudó a que cayera la criminalidad y se demostró que la población negra quedaba sobrerrepresentada en las listas. El 56% de los hombres negros de entre 20 y 29 años figuraban en ellas, según detalló un estudio independiente unos años después.
En las grandes ciudades estadounidenses, hay barrios que suelen estar estrechamente asociados a una raza en particular. “La actividad policial desproporcionada en comunidades de color puede contribuir a los sesgos en los registros de incidentes, lo que puede causar que se propaguen a modelos inferidos”, reconocen los autores del artículo, para quienes no hay forma de controlar estadísticamente esas desviaciones. “Quien use este tipo de herramientas debe ser consciente de ello”, subrayan.
Una investigadora de otra universidad estadounidense consultada por EL PAÍS cuestiona los resultados del estudio de Rotaru y sus colegas. En su opinión, la alta efectividad del modelo (90%) desciende notablemente cuando los crímenes analizados son raros. Otro pero que le pone al modelo es que el algoritmo predictivo no será capaz de detectar las zonas con mayor criminalidad, sino con mayor criminalidad reportada.
Esa diferencia es importante, porque en EE.UU. las comunidades negras son menos proclives a denunciar delitos ante la policía. Rotaru y su equipo señalan que pretenden corregir ese sesgo teniendo en cuenta únicamente crímenes que, por su naturaleza (agresiones, asesinatos, robos de bienes), suelen ser reportados.
“Nuestra herramienta se basa en los delitos registrados. No podemos modelar sobre crímenes que no se hayan denunciado”, explica Chattopardhayay, del equipo de Rotaru.
La desigual relación con las fuerzas de seguridad en función de la raza es uno de los sesgos de entrada a los que se enfrentan los algoritmos aplicados a labores policiales. No son los únicos. Como las bases de datos con las que trabajan suelen ser de arrestos, las zonas con más detenciones son las que la máquina asocia con más necesidad de patrullas, lo que a su vez aumenta el número de detenciones. De ahí las protestas de muchas asociaciones de la sociedad civil por el uso generalizado de estas herramientas y las cautelas de Rotaru y sus colegas con su propio trabajo.
EL PAISOtras noticias de Inteligencia artificial
Más leídas de Tecnología
Clave. Los trucos de WhatsApp más simples y prácticos que son fáciles de aplicar
Infancias. Cómo activar el "modo Peter Pan" en WhatsApp
Similares a los Ray-ban de Meta. Samsung tendrá su línea de anteojos inteligentes en 2025
Cuidado. Qué significa quitar la foto de perfil en WhatsApp, según un psicólogo