El gobierno chino ha provocado una condena generalizada a nivel internacional por las duras medidas que ha llevado a cabo en contra de los musulmanes étnicos de su región occidental, incluida la aprehensión de hasta un millón de ellos en centros de detención.
Ahora, hay documentos y entrevistas que demuestran que las autoridades también están usando un sistema secreto y enorme de tecnología avanzada de reconocimiento facial para rastrear y controlar a los uigures, en esencia una minoría musulmana. Es el primer ejemplo conocido de un gobierno que utiliza la inteligencia artificial para crear una categorización racial, según expertos.
La tecnología de reconocimiento facial, la cual está integrada en redes de cámaras de seguridad que se están expandiendo a gran velocidad, busca exclusivamente a los uigures con base en su apariencia y mantiene un registro de sus idas y venidas para fines de investigación y análisis. La práctica hace que China sea una pionera en la utilización de tecnología de vanguardia para vigilar a su gente, lo cual podría dar lugar a una nueva era de racismo automatizado.
Cinco personas con conocimiento directo sobre los sistemas, quienes solicitaron permanecer en el anonimato porque temían represalias, describieron la tecnología y su uso para controlar a once millones de uigures de China. The New York Times también revisó bases de datos que usa la policía, documentos de adquisiciones gubernamentales y materiales de publicidad que distribuyen las empresas de inteligencia artificial encargadas de hacer los sistemas.
Las autoridades chinas ya tienen una gran red de vigilancia, en la que se encuentra el rastreo del ADN de la gente en la región occidental de Sinkiang, el hogar de muchos uigures. Sin embargo, el alcance de los nuevos sistemas, de los que antes no se tenía conocimiento, extiende ese monitoreo a muchos otros rincones del país.
La policía está usando la tecnología de reconocimiento facial para ubicar a los uigures en ciudades ricas de la región oriental de China, como Hangzhou y Wenzhou y a través de la provincia costera de Fujian, comentaron dos de las personas. Este año, en el transcurso de un mes, los cuerpos policiales de la ciudad china de Sanmenxia, ubicada a lo largo del río Amarillo, instalaron un sistema que realizó 500.000 escaneos para saber si los residentes eran uigures.
Documentos de la policía muestran que está creciendo la demanda de ese tipo de funciones. A inicios de 2018, casi dos docenas de departamentos de la policía en dieciséis provincias y regiones a lo largo y ancho de China buscaron ese tipo de tecnología, de acuerdo con documentos de adquisiciones. Por ejemplo, el año pasado, las agencias policiales de la provincia central de Shaanxi buscaron adquirir un sistema de cámaras inteligentes que "debía ser compatible con el reconocimiento facial para identificar atributos de uigures y de no uigures".
Algunos departamentos de la policía y empresas tecnológicas describieron la práctica como "identificación de minorías", aunque tres de las personas señalaron que esa frase era un eufemismo para nombrar una herramienta que buscaba identificar solo a los uigures. Esta minoría suele tener un aspecto distinto de la mayoría de la población han de China, pues tiene un parecido más cercano a la gente de Asia Central. Esas diferencias facilitan la tarea del software para distinguirlos.
Durante décadas, las democracias han tenido prácticamente un monopolio sobre la tecnología de punta. En la actualidad, una nueva generación de empresas emergentes que satisfacen las necesidades autoritarias de Pekín están empezando a establecer las pautas para las tecnologías emergentes como la inteligencia artificial. Herramientas similares podrían automatizar prejuicios basados en el color de la piel y la etnia de otro lugar.
"Si se consideran los usos más riesgosos de esta tecnología, es muy probable que alguien las ponga a prueba", comentó Clare Garvie, asociada del Centro sobre Privacidad y Tecnología de la Escuela de Derecho de la Universidad de Georgetown. "Si creas una tecnología que puede clasificar a las personas según su grupo étnico, alguien la usará para reprimir a esa etnia".
Desde un punto de vista tecnológico, se ha vuelto relativamente sencillo usar algoritmos para clasificar a la gente según su raza o grupo étnico. Las empresas como IBM publicitan un software que puede clasificar a la gente en grupos amplios.
Sin embargo, China ha abierto nuevos caminos al identificar un grupo étnico para fines relacionados con la impartición de justicia. Una empresa emergente de China, CloudWalk, describió una experiencia de muestra para promocionar sus propios sistemas de vigilancia. La empresa explicó que la tecnología podía reconocer "grupos de personas delicados".
"Si en un inicio un uigur vive en un vecindario y en veinte días aparecen seis uigures, de inmediato envía alarmas" a las fuerzas policiacas.
En la práctica, los sistemas son imperfectos, aseguraron dos de las personas. A menudo, su precisión depende de factores del entorno como la iluminación y la posición de las cámaras.
En Estados Unidos y Europa, el debate en la comunidad de la inteligencia artificial se ha centrado en los prejuicios inconscientes de las personas que diseñan la tecnología. En pruebas recientes, los sistemas de reconocimiento facial de empresas como IBM y Amazon fueron menos precisos al momento de identificar los rasgos de gente de piel más oscura.
Los esfuerzos de China generan cuestionamientos más serios. Aunque la tecnología de reconocimiento facial utiliza aspectos como el tono de la piel y las formas de los rostros para clasificar imágenes en fotos o videos, los humanos la programan con el objetivo de categorizar a la gente con base en definiciones sociales de raza o grupo étnico. La policía china, con la ayuda de las empresas emergentes, lo ha hecho.
"Es algo que me parece impactante al ser de Estados Unidos, donde es muy probable que haya racismo implicado en nuestra toma de decisiones respecto de los algoritmos, pero no de una manera tan abierta", comentó Jennifer Lynch, directora de litigios de vigilancia en la Fundación Frontera Electrónica. "No hay un sistema diseñado para identificar a alguien como un afroamericano, por ejemplo".
Dentro de las empresas chinas de inteligencia artificial detrás del software se encuentran Yitu, Megvii, SenseTime y CloudWalk, las cuales están valuadas en más de 1000 millones de dólares. Otra empresa, Hikvision, la cual vende cámaras y software para procesar imágenes, ofreció una función de reconocimiento de minorías, pero comenzó a eliminarla de manera gradual en 2018, de acuerdo con una de las personas informadas al respecto.
Yitu y sus rivales tienen ambiciones de expandirse al extranjero. Ese tipo de iniciativa podría provocar que el software de caracterización étnica cayera con facilidad en las manos de otros gobiernos, señaló Jonathan Frankle, investigador de inteligencia artificial en el Instituto Tecnológico de Massachusetts.
"No creo que sea exagerado tratar este asunto como una amenaza existencial para la democracia", señaló Frankle. "En el momento en que un país adopte un modelo con un nivel de autoritarismo tan drástico, estará usando información para imponer ideas y reglas de una manera mucho más arraigada que lo que se pudo haber logrado hace 70 años en la Unión Soviética. En ese sentido, estamos caminando dormidos y a paso lento hacia una crisis urgente".
Otras noticias de Privacidad en la era digital
Más leídas de Tecnología
Viral en TikTok. La pregunta que debés hacerle a ChatGPT si quieres saber qué conoce acerca de uno mismo
Paso a paso. Por qué recomiendan desactivar el Meta IA de WhatsApp: cómo hacerlo
Halloween 2024. Así es el doodle de Google de hoy que celebra la Noche de Brujas
Llega Halloween. Así se vería Chucky en la vida real, según la inteligencia artificial