Kashmir Hill: “El rostro es el último bastión de la privacidad, por eso el reconocimiento facial es peligroso”
La reportera de The New York Times explora en su último libro los desafíos que plantea una tecnología que ni siquiera Google o Facebook decidieron usar
- 9 minutos de lectura'
La periodista Kashmir Hill recibió en noviembre de 2019 el aviso de que una startup llamada Clearview AI decía ser capaz de poder identificar a cualquiera a partir de una imagen. Su fuente decía que la compañía había recogido miles de millones de fotos de redes sociales como Facebook, Instagram o LinkedIn —sin avisar ni a las plataformas ni a los interesados―, y que si introducías en la app la foto de alguien, te mostraba todos los sitios web en los que aparecía esa persona, además de su nombre completo y de información personal.
Nadie se había atrevido a desarrollar nada parecido hasta la fecha. Una aplicación capaz de identificar a extraños era demasiado. Podía usarse, por ejemplo, para fotografiar a alguien en un bar y saber en pocos segundos dónde vive y quiénes son sus amigos. Hill, reportera en The New York Times, publicó la historia de esta pequeña empresa, que en pocos meses pasó de ser una total desconocida a contar con el apoyo de Peter Thiel, uno de los padrinos de Silicon Valley, y a convertirse en el objeto de deseo de los cuerpos de policía de EE.UU. y del extranjero. Llegó hasta Hoan Ton-That, el impenetrable ingeniero responsable de la herramienta que montó junto a Richard Schwartz, un político con una larga trayectoria entre bambalinas en el Partido Republicano. Su investigación siguió hasta dar forma a su libro Your Face Belongs to Us (Tu cara nos pertenece, editado por Random House en 2023 y sin traducción al español hasta el momento).
“Me pareció que los fundadores de la startup eran personajes insólitos y fascinantes, y que la historia captaba algo esencial en esta industria: ese deseo de crear nuevas tecnologías realmente transgresoras sin tener en cuenta sus implicaciones sociales”, explica por videoconferencia desde Nueva York. Nacida hace 43 años y criada en Florida, Kashmir Hill, que se llama así en honor a uno de los temas más míticos de Led Zeppelin, trabajó en publicaciones como Gizmodo, Forbes o The New Yorker antes de unirse al Times en 2019. Le llamó la atención también que una empresa tan joven pudiera dominar en poco tiempo una tecnología tan compleja como el reconocimiento facial.
¿Qué tienen de particular los sistemas automáticos de reconocimiento facial? ¿Por qué le interesa esta tecnología?
Es clave para vincular a las personas del mundo real a lo que se sabe sobre ellas en internet. Un uso descontrolado del reconocimiento facial erradicaría el anonimato, ya no se podría navegar por el mundo sin que la gente lo supiera todo sobre nosotros. Los gobiernos sabrían dónde estamos y qué hacemos todo el tiempo. Eso ya sucede en China. Rusia lo usa para identificar a quienes se manifiestan contra la invasión de Ucrania. El rostro es, esencialmente, el último bastión de la privacidad. Volviendo a China, han desarrollado una lista roja para quienes están en el poder y no quieren que les vean. Estar en esa lista significa ser invisible para el sistema de vigilancia, la eliminación de los registros de las cámaras. Es muy revelador que no ser visto sea un privilegio exclusivo de los poderosos.
¿Cree que la historia de Clearview AI es representativa de la del reconocimiento facial?
Sí. La tecnología de reconocimiento facial es un arma de doble filo. Se puede usar para resolver crímenes, encontrar asesinos y violadores, pero también para rastrear a los disidentes o para obtener información sobre actrices porno y llegar hasta ellas. Los fundadores de Clearview AI tenían ideas muy preocupantes sobre qué hacer con esta herramienta. Creían que analizando el rostro de una persona se podía inferir su inteligencia o su propensión al consumo de drogas. Han tratado con Hungría, que quería su producto para perseguir a activistas e identificar a los liberales. Así que, en cierto sentido, es casi tranquilizador que al final solo trabajen con la policía.
Clearview AI ha sido multada o prohibida en varios países. ¿Cuál es su situación actual?
Siguen operando en Estados Unidos. Trabajan con muchas fuerzas del orden locales, así como con el Departamento de Seguridad Nacional y el FBI. Están un poco asediados legalmente, pero han tenido algunos éxitos, como que un tribunal de Reino Unido haya anulado una multa que le impuso el regulador. En última instancia, el hecho de que hayan decidido orientarse exclusivamente a las fuerzas del orden les ha permitido evitar muchos resultados negativos. Veremos qué pasa en los demás países europeos.
¿Cree que el boom de la inteligencia artificial (IA) generativa ha servido como cortina de humo para la expansión de empresas como Clearview AI?
La gente está muy centrada en la IA generativa, y eso ha desviado la atención, tal vez por la forma en que esa tecnología amenaza nuestra privacidad. Pero en cierto modo, las preocupaciones son las mismas. El New York Times, donde trabajo, ha demandado a OpenAI por usar todos nuestros artículos sin pedir permiso. De forma similar, la base de datos de Clearview AI está compuesta por decenas de miles de millones de imágenes de nuestras caras sacadas de internet sin el consentimiento de nadie. Me preocupa mucho el reconocimiento facial combinado con la IA generativa. Puedes generar el rostro de alguien en una imagen pornográfica o en algún tipo de situación embarazosa y simplemente publicarlo, sabiendo que algún día alguien buscará a esa persona con una herramienta de reconocimiento facial y la encontrará. Escribí el libro porque quiero que la gente comprenda lo poderosa que se ha vuelto la tecnología de reconocimiento facial. Ahora es realmente trivial identificar a alguien y encontrar todas sus fotos en internet. Y creo que eso tiene implicaciones muy preocupantes para el futuro.
¿Cuál es la percepción social del reconocimiento facial en EE.UU?
Existe una resistencia real al uso de la tecnología de reconocimiento facial en vivo. Los legisladores dicen que rechazan la idea de buscar personas en tiempo real en las calles, algo que está sucediendo, por ejemplo, en el Reino Unido. Al mismo tiempo, creo que la mayoría acepta usar esta tecnología después de que se haya cometido un delito para tratar de identificar al culpable.
¿Cómo es posible que una empresa que basa su negocio en un producto construido a partir de la descarga no consentida de millones de fotografías de rostros humanos pueda operar como si nada?
Cuando escribí por primera vez sobre Clearview AI, tenían 3000 millones de fotos. Cuando terminé el libro, creo que tenían 20.000 millones. Ahora, tienen 40.000. Hay países que han dicho que lo que están haciendo es ilegal. No deberían recopilar fotos de la gente sin su consentimiento, pero siguen haciéndolo y nadie los detiene. En EE.UU. tenemos algún precedente, por lo que esa ilegalidad no está tan clara. Estamos viendo lo mismo con la IA generativa: ¿se debe permitir a estas empresas recolectar lo que quieran y usarlo como quieran para lucrarse? Creo que esa es una de las preguntas más importantes de nuestro tiempo.
Señala en el libro que Google y Facebook tenían su propia tecnología de reconocimiento facial ya desarrollada antes que Clearview AI, pero decidieron no lanzarla.
Realmente me pareció sorprendente. Son empresas que han sido muy escrutadas por posibles abusos de privacidad, y eso les ha hecho más cuidadosas. También creo que estaban preocupadas por la tecnología en sí. Sus ingenieros se alarmaron y vieron las desventajas obvias de divulgar algo así. Eric Schmidt, presidente de Google en 2011, dijo que el reconocimiento facial era hasta la fecha la única tecnología que su compañía desarrolló y no lanzó. Me ha parecido interesante, por cierto, que haya sucedido lo mismo ahora con la IA generativa: Google tenía su propio ChatGPT, pero pensaron que el mundo no estaba preparado para esto todavía.
¿Cree que vamos hacia una sociedad hipervigilada?
Vivimos en un mundo en el que hay cámaras por todas partes, pero no tienen sistemas de reconocimiento facial. Creo que en Europa tenéis ese debate ahora mismo: si secuestran a tu hijo o hay un fugitivo suelto, ¿deberíamos poder encontrarlos en tiempo real? Una vez que configuras esa infraestructura, podría usarse de muchas otras formas. Creo que aún podemos decidir si permitimos o no que este sea un mundo en el que nos rastreen por la cara todo el tiempo, cada vez que salimos de nuestras casas. Y es una decisión que hay que tomar ahora mismo.
¿Cómo trazamos la línea entre lo que es un uso adecuado y no adecuado del reconocimiento facial?
Creo que un elemento importante ahora mismo es retroactivo versus proactivo. ¿Lo usas para resolver un delito que ya se ha cometido o para tratar de prevenir delitos o encontrar personas en tiempo real? Esa es una gran brecha, es la que estamos atravesando ahora mismo. Otro punto clave es la seguridad. En Estados Unidos, si eres policía, puedes usar reconocimiento facial para resolver crímenes. Si eres una empresa, puedes usarlo para tratar de identificar a los ladrones de tiendas y expulsarlos. Lo que incomoda a la gente son las aplicaciones ajenas a la seguridad.
¿Cree que la ciudadanía se acostumbrará y tolerará esta tecnología?
R. Tendremos enfrentarnos a distintos casos de uso y ver cuán cómodos son. Fue muy impactante cuando en el Madison Square Garden se comenzó a detener en la puerta a los abogados de las marcas que les habían demandado. La gente se dio cuenta de que el reconocimiento facial podía usarse de una manera alarmante. Hubo un tiempo en el que se grababan las llamadas telefónicas de la Casa Blanca. Se vio con todas esas cintas de Richard Nixon haciendo sus planes para el Watergate. Eso causó alarma social y se aprobaron leyes que ilegalizaron las escuchas telefónicas, excepto las que contaban con orden judicial. Por eso, las cámaras de vigilancia solo graban video y no sonido: porque decidimos que no queríamos vivir en un mundo en el que todo lo que dices quede grabado. Creo que pasará lo mismo con nuestras caras.
EL PAIS