¿Es inconstitucional el reconocimiento facial porteño?
Este es el año del reconocimiento facial. En abril el gobierno de la Ciudad de Buenos Aires compró por $2,3 millones de pesos software de reconocimiento facial a una empresa rusa que permite —en tiempo real y en simultáneo— escanear 300 de las 7000 cámaras con las que cuenta la Ciudad.
Lo que la adquisición prometía era el aumento de la efectividad de las fuerzas de seguridad en la captura de prófugos de la justicia. Pero más que una genialidad porteña lo que la decisión replicaba era la tendencia de países como EE.UU., Reino Unido, China y Rusia de implementar sistemas análogos.
Lo que resultó particularmente curioso es que la bandera alzada para promocionar este sistema, por supuesto, fue la de la innovación tecnológica al servicio de la justicia. Es por esto que no podría haber resultado más paradójico que fuera San Francisco la primera ciudad estadounidense en prohibir este tipo de tecnología por parte de la policía y otras agencias públicas. Considerando que Silicon Valley se emplaza en la mismísima bahía de San Francisco parece especialmente difícil acusar de tecnófoba a esta decisión política.
Por estos días, y en una línea similar, desde la Asociación por los Derechos Civiles (ADC) se presentó una Acción Declarativa de Inconstitucionalidad contra el Gobierno de la Ciudad por la implementación del Sistema de Reconocimiento Facial de Prófugos (SRFP) emplazado en el espacio público porteño. Esta iniciativa se hace eco de las denuncias presentadas al poco tiempo de la implementación por la misma organización.
¿Es inconstitucional el sistema de reconocimiento facial porteño?
Esta declaración de inconstitucionalidad descansa sobre una serie de argumentos de los que se destacan algunos puntos. En primer lugar, según el abogado y analista de políticas públicas Eduardo Ferreyra, de la ADC, desde el Gobierno no se ha respetado el principio constitucional de legalidad que exige un expreso sustento legislativo para toda interferencia en derechos fundamentales. En tanto el sistema fue implementado a través de una resolución (Resolución 389/19) y no una ley con participación de la Legislatura, "la norma no ha sido fruto de una decisión elaborada, plural y democrática", explica Ferreyra. Al haberse salteado este paso no fue la ciudadanía porteña —a través de sus representantes o mediante una audiencia— la que decidió colectivamente respecto de esta tecnología.
Luego, en tanto el Gobierno porteño no brindó suficientes detalles respecto de la tecnología adoptada habría faltado a su deber de transparencia. Sin ir más lejos, no hay suficiente información respecto de los siguientes puntos:
- Cómo fue desarrollado el software de reconocimiento facial utilizado;
- Cómo fueron realizadas las evaluaciones para verificar las tasas de error y para determinar las tasas de rechazo falso y aceptación falsa;
- Cómo se garantiza que el software no sea utilizado para efectuar discriminaciones prohibidas constitucionalmente, como aquellas que apuntan a raza y género;
- Si se llevaron a cabo auditorías técnicas y qué protocolo se siguió;
- Si se llevaron a cabo evaluaciones de impacto en derechos y garantías constitucionales.
"Esta ausencia de información", explica Ferreyra, "implica que sea muy dificultoso para la ciudadanía evaluar el sistema". Como alguna vez comenté en este mismo espacio, la incorporación de cualquier tecnología digital que implique toma de decisiones debe ser primero evaluada en torno a su impacto.
Esta Evaluación de Impacto Algorítmico (EIA) debería primero enfocarse en definir el sistema que se quiere usar, la forma en que este recolectará información y quién se encargará de interpretar estos datos, pero sobre todo debe involucrar a la sociedad civil desde el comienzo. Incluso una vez puesto en marcha el sistema este debe ser monitoreado constantemente en pos de identificar injusticias que el sistema pudiera estar perpetrando o perpetuando: al incorporar algoritmos en el gobierno también deben incorporarse esquemas de auditoría permanente.
Por último, ADC apela a los comentarios que hizo el Relator Especial de la ONU acerca del derecho a la privacidad luego de su visita a Buenos Aires en mayo de este año, y señala que existe una afectación al principio de proporcionalidad: "Esta tecnología tiene graves implicaciones para la privacidad de millones de personas que utilizan el espacio público, con el justificativo de buscar en una lista de aproximadamente 47 mil personas que incluye delitos que no son graves y cuya exactitud no se comprueba cuidadosamente".
En resumen, Ferreyra agrega que la implementación del sistema "se hizo sin la correspondiente evaluación de impacto en la privacidad, con un resultado desfavorable en cuanto a su legalidad, necesidad y proporcionalidad, sin consulta a expertos independientes y sin la implementación de fuertes salvaguardas que permitan evitar abusos y promover la rendición de cuentas sobre los actos de gobierno".
¿Pero el sistema funciona?
Si bien el sistema de reconocimiento facial ha identificado prófugos en la Ciudad, también han existido casos en los cuales personas fueron retenidas, demoradas o detenidas de manera errónea. "De todas maneras", explica Ferreyra, "la eventual eficiencia de los sistemas de reconocimiento facial en identificar personas es un argumento no para justificar su uso sino para ser aún más precavidos antes de decidir su utilización".
Este comentario alude a la asimetría que hay entre la implementación de un sistema de monitoreo o vigilancia y su desmantelamiento. "Este tipo de herramientas pueden convertirse en formidables dispositivos de vigilancia masiva por parte del Estado. De este modo, si se expanden de manera generalizada, pueden terminar siendo utilizados como medios de perfilamiento y targeting para otros fines, como la represión o inhibición de protestas sociales en el espacio público", aclara Ferreyra. Es precisamente por este motivo que en los últimos meses en Hong Kong se han presenciado escenas propias de ficciones distópicas, con rayos láser y máscaras que ocultan rostros para hacerle frente a la policía durante las manifestaciones.
Respecto de un posible uso virtuoso de esta tecnología, hace algunos días el New York Times publicó una columna de opinión en la que los profesores de derecho Barry Friedman y Andrew Guthrie Ferguson argumentaban a favor de la utilización del reconocimiento facial por parte de la policía siempre y cuando se respetaran ciertas condiciones:
- El reconocimiento facial no debería utilizarse en absoluto hasta que pueda identificar a las personas con igual éxito sin importar su género u origen étnico.
- El reconocimiento facial debería estar disponible únicamente para los crímenes más graves, como homicidio, violación, robos y asalto a mano armada.
- El uso de reconocimiento facial no debería estar limitado a bases de datos criminales, de lo contrario se seguirán perpetuando sesgos.
- El reconocimiento facial no debería permitirse sin una orden judicial. Sin esta supervisión no puede haber garantías de que su uso es correcto.
- Cualquier uso indebido de reconocimiento facial debería tener penas y multas bien establecidas. No alcanza con establecer precauciones, sino que debe haber consecuencias al abuso de esta tecnología.
En el artículo se argumenta a favor de estos puntos pero incluso cuando cada uno de ellos pudiera ser largamente discutido, es sumamente interesante pensar en ampliar la discusión más allá del binarismo de reconocimiento facial sí, reconocimiento facial no.
Sobre este punto Ferreyra señala que en el caso particular de la Ciudad y nuestro país, nunca puede desentenderse la implementación de cierta tecnología del contexto en el que se aplica: "No podemos olvidar dos características principales de América Latina en general y Argentina en particular. La primera es la existencia de sociedades fuertemente marcadas por la desigualdad. La segunda es la ausencia de respuestas eficaces por parte del Estado a las demandas sociales. La presencia de ambos fenómenos implica que el espacio público en nuestro país debe ser un lugar que favorezca expresiones críticas y no un lugar para la vigilancia y control".
En cuanto a la factibilidad de implementar, aunque fuera de otro modo, un sistema de reconocimiento facial en la Ciudad que respete nuestra Constitución, Ferreyra se reconoce pesimista: "No creemos que actualmente exista una forma de implementar sistemas de reconocimiento facial por parte de fuerzas de seguridad para fines de vigilancia que sea respetuosa de derechos".
Incluso frente a propuestas como la del artículo del New York Times la discusión debe llevarse a cabo de otro modo: "Creemos que el escenario debe ser el Poder Legislativo, en el marco de una discusión plural, amplia y con participación de la ciudadanía, las organizaciones de la sociedad civil, la comunidad técnica y cualquiera con interés en intervenir".
En pos de generar más espacios de debate la ADC planea organizar a fin de mes un encuentro junto a la American Civil Liberties Union de Massachusetts para evacuar dudas y debatir sobre la creciente tendencia en la implementación de reconocimiento facial en Estados Unidos y Argentina. En esta oportunidad Emiliano Falcon de la ACLU presentará el trabajo que desarrollan al respecto desde la organización y su reciente campaña "Press Pause on Face Surveillance". ADC presentará también los avances de su propia campaña crítica del reconocimiento facial en Buenos Aires.
Si este es el año del reconocimiento facial quizá sea momento de ampliar la discusión con seriedad y de forma informada. En la persecución de consensos y compromisos el respeto a la Constitución no puede, ciertamente, quedar pendiente de una actualización de sistema.
Otras noticias de Privacidad en la era digital
Más leídas de Tecnología
Similares a los Ray-ban de Meta. Samsung tendrá su línea de anteojos inteligentes en 2025
Clave. Los trucos de WhatsApp más simples y prácticos que son fáciles de aplicar
Auto clásico. Cómo se vería el histórico Dodge GTX modelo 2025, según la IA
Cuidado. Qué significa quitar la foto de perfil en WhatsApp, según un psicólogo