La tecnología de reconocimiento facial es la nueva vedette en cuestiones de seguridad en el mundo
- 8 minutos de lectura'
Imaginen que están en su casa una tarde y llega la Policía. Imaginen que les dicen que los tienen que acompañar, pero no explican por qué. Sus dos hijas, de tan solo unos años, están escuchando. Imaginen el acero frío en las muñecas, la cara de terror de su familia, su casa perdiéndose desde el vidrio trasero del patrullero. Imaginen la noche en un servicio penitenciario. El frío del cemento. Sin llamadas. Sin saber por qué. Imaginen un interrogatorio a la mañana, de esos que se ven en las series. Los oficiales muestran una foto. No saben quién es. Son parecidos, tal vez por el peso o el color de piel. Imaginen que después de todo eso les dicen: “Perdón, puede irse. La computadora se equivocó”.
Además de casos emblemáticos de detenidos por error, algunos informes internacionales arrojan estadísticas alarmantes: las bases de datos también almacenan rostros de menores de edad.
Eso le pasó a Robert Williams en Detroit hace tres años, cuando estuvo 30 horas ilegalmente detenido debido a un error del software utilizado por la Policía de Míchigan. Hace tiempo venimos escuchando sobre las tecnologías de reconocimiento facial, aunque todavía parecieran resultar lejanas, algo que supieron usar los chinos para combatir el covid o tan solo la trama de alguna película distópica como Minority Report. Sin embargo, lo cierto es que cada vez más países las utilizan, aunque muchas investigaciones dan cuenta de márgenes de error que superan el 90%, algoritmos que discriminan y, sobre todo, una legalidad muy puesta en duda.
Así lo expone el nuevo informe de la Red Internacional de Organizaciones de Libertades Civiles (Inclo), difundido en nuestro país por el Centro de Estudios Legales y Sociales (CELS) a partir de un relevamiento acerca de cómo el uso de estos programas de vigilancia afecta los derechos y la vida cotidiana de las personas en 13 países de América, África, Europa, Asia y Australia. Desde empresas privadas que ofrecen estos servicios, con aplicaciones que “reconocen comportamientos” a través de las cámaras de seguridad, pudiendo advertir “si alguien resulta sospechoso”, hasta estados que las usan para identificar manifestantes o minorías étnicas, la lista es extensa.
De lo que parece no haber dudas es que hoy la tecnología está entre las favoritas en Estados Unidos –donde más del 50% de la población adulta está incluida en una base de datos de reconocimiento policial– e Israel. Allí, se estima que unos 450.000 palestinos que viven en Cisjordania poseen una tarjeta electrónica con su foto registrada en una base de datos biométricos. ¿Lo curioso? La base pertenece a una empresa privada, AnyVision. El año pasado, Microsoft anunció públicamente que retiraba su inversión de la empresa tras la polémica generada por una auditoría realizada por el ex fiscal general de Estados Unidos Eric Holder, donde se advierte la aplicación de políticas de vigilancia masiva.
¿Se acuerdan cuando hace dos años jugamos con la aplicación FaceApp? Nuestra versión con 70 años resultaba convincente. Lo que casi nadie sabía es que para eso le estábamos entregando nuestros datos biométricos a Wireless Lab, una startup rusa.
El principal problema, según los especialistas, lo enfrenta la fiabilidad de este tipo de control. Sin ir más lejos, una investigación realizada por la Universidad de Essex, publicada en 2019, reveló que el programa utilizado por la Policía Metropolitana de Londres tenía un rango de error del 81%. A esto se suman las denuncias por discriminación. Entre las conclusiones del documento de Inclo, se menciona cómo las tecnologías faciales presentan más probabilidades de equivocarse con personas de origen africano y oriental, como así también en mujeres más que en hombres, y en ancianos y niños más que en personas adultas.
Sin embargo, pese a todo esto, el tema parecería estar lejos de alertarnos. ¿Se acuerdan cuando hace dos años todos jugamos con la aplicación FaceApp? Nuestra versión con 70 años realmente resultaba convincente. Lo que casi nadie sabía es que para eso le estábamos entregando nuestros datos biométricos a Wireless Lab, una startup rusa. La empresa dijo a través de un comunicado que las imágenes se eliminaban de sus servidores dentro de las 48 horas posteriores a la fecha de carga, pero no precisó si durante el tiempo que permanecían en la aplicación podrían ser almacenadas en una base de datos.
Errores locales
En mayo de 2019, el gobierno de la Ciudad de Buenos Aires anunció la puesta en funcionamiento del Sistema de Reconocimiento Facial de Prófugos. El dispositivo funciona cruzando datos obtenidos de las 7000 cámaras que integran el sistema de video de la Ciudad con la base nacional de personas buscadas, conocida como Sistema de Consulta Nacional de Rebeldías y Capturas (CoNaRC). Tan solo 20 días después, una mujer fue detenida y trasladada de noche a una comisaría. Según contó una amiga, la Policía le informó que tenía una causa por fraude habitacional en 2011, pese a que la mujer negó el hecho y mostró su DNI para acreditar su identidad. En el operativo, fueron demorados, además, varios trabajadores del subterráneo. La historia tuvo el mismo desenlace que el de Detroit: la liberaron al día siguiente porque no era la persona buscada. Solo se parecía a una prófuga.
“El sistema admite la posibilidad de error, a tal punto que se establece como piso para emitir el alerta un 82% en el reconocimiento de la imagen. Es decir, si hay una persona en la base del CoNaRC que tiene un rostro un 82% parecido al tuyo, es probable que te vayan a buscar”. Rodrigo Iglesias es abogado, miembro del Observatorio de Derecho Informático Argentino. El año pasado, la organización presentó un amparo contra la administración de Horacio Rodríguez Larreta para tener mayor precisión sobre el uso de la herramienta. “Hasta ahora, no nos permiten saber cuál es el código fuente. Eso nos dejaría conocer cómo funciona, cómo se alimenta esa inteligencia artificial. Mientras tanto, el 30 de octubre nos informan que habían sido puestas a disposición de la Justicia, a partir de esta implementación, 1648 personas, y sabemos que en agosto los alertas que tiró el sistema fueron 3059. Esto habla de un 53,87% de efectividad”.
Otro reclamo provino de Human Rights Watch. La organización advirtió que la identificación presentaba tasas de error más altas en el caso de niños. Incluso llegaron a detectar la inclusión de un niño, sin nombre ni número de documento, señalado por “delitos contra las personas por lesiones graves”. ¿Su edad? Tres años. Y no solo eso, al investigar detectaron datos de hasta 166 menores de edad. “Esto se debe, en parte, a que la mayoría de los algoritmos habían sido probados utilizando rostros de adultos. En este sistema, además, la tasa de error se incrementa significativamente cuando el reconocimiento facial es utilizado en espacios públicos donde las imágenes capturadas por cámaras de videovigilancia no son posadas, lo cual podría resultar en la interceptación y el arresto erróneos de menores de edad”, explica José Vivanco, director de la División de las Américas del organismo.
Llegaron a detectar la inclusión de un niño señalado por “delitos contra las personas por lesiones graves”. ¿Su edad? Tres años.
No obstante, destaca la respuesta dada por el gobierno nacional, que tras el pedido, bloqueó el acceso público a la base de datos del CoNaRC y se comprometió a realizar una auditoría interna para prevenir errores futuros en la carga de datos. “Por su parte, el gobierno de la Ciudad nos informó que el sistema de reconocimiento facial se encontraba suspendido desde abril de 2020 y que no había arrojado ningún falso positivo desde septiembre de 2019. Esta suspensión no debería ser temporal, sino permanente hasta tanto no se realice una evaluación confiable e independiente, con la participación de sectores de la sociedad civil, para pensar de esa forma el impacto sobre los derechos humanos y la privacidad, en particular de los niños y niñas”. En este sentido, el CELS advierte en el mismo informe de Inclo cómo en nuestro país este tipo de vigilancia no ha sido sometida a un debate público y mucho menos a un tratamiento legislativo.
En definitiva, todo hace pensar que recién estamos en una etapa germinal de una tecnología de la que, seguramente, resulte difícil escapar, donde se están poniendo en juego muchas falacias e incertezas. Por ahora, nos queda una solución. Evitar las apps que juegan con nuestro rostro o, por lo menos, entender que no es algo gratuito: les estamos regalando a empresas privadas datos que hoy valen millones en todos los sistemas de seguridad del mundo.
Quién nos mira... en algunos números
- 64 países son los que, según registros de 2019, están utilizando tecnologías de reconocimiento facial.
- Más del 50% de la población adulta en Estados Unidos está en una base biométrica con usos policiales.
- 1900 manifestantes fueron identificados durante las manifestaciones del año pasado en Nueva Delhi a través del cruce de datos del padrón electoral con un software de reconocimiento facial.
- Un 20% mayor es la tasa de error en mujeres negras, de acuerdo con un estudio realizado por el MIT y la Universidad de Stanford.
- 15.000 cámaras son las que actualmente funcionan en Johannesburgo conectadas con sistemas de inteligencia artificial.
- A 105.000 asciende el número en Moscú. El sistema fue puesto en marcha el año pasado bajo la excusa de que servía para controlar el cumplimiento de la cuarentena.
- 6000 casos de aplicación de estas tecnologías se identificaron durante el 2018 en Hungría. El dato surge a raíz de un pedido judicial de información al saberse que el servicio de inteligencia de ese país estaba autorizando el uso del software por pedido de ciertos sectores dentro del gobierno.
- 50% de error. La cifra es inapelable.
- Así lo sostienen diversos estudios frente a las intenciones del gobierno en India de implementar un sistema que funcione con el uso de máscaras y tapabocas.
- Se trata del Automated Facial Recognition System (AFRS), considerado hasta ahora el programa más ambicioso a nivel mundial en la utilización de esta tecnología.