El mes pasado netflix estrenó el documental Nada es privado (The Great Hack), una reconstrucción sobre el caso de la consultora inglesa Cambridge Analytica, que expuso la manipulación de datos de redes sociales con fines políticos para la elección de Donald Trump. La película, de extensas dos horas, busca ir paso a paso en el modelo de negocios de internet ("cuando algo es gratis, el producto sos vos"), hasta llegar a los efectos que ese intercambio –voluntario, pero complicado– podría tener en el sistema democrático de Occidente. Sin embargo, ocupa más tiempo en contribuir a la paranoia y a las hipótesis conspirativas que en abordar posibles soluciones o planes alternativos. Como escribió Vladimir Garay, del colectivo Derechos Digitales de Chile: "Es una oportunidad perdida".
Aprovechemos entonces ciertas frases para sacar algunas ideas claras de este enredo de la big data y la política.
1. "Sí (el que hicimos con Cambridge Analytica) era un experimento poco ético". Lo dice un exempleado de la compañía. Con esto describe los tests de personalidad que la empresa realizó a través de Facebook para detectar a las personas con tendencia a ser más influenciables y llegar a ellas en los estados con "voto cambiante", que pueden dar vuelta una elección. ¿Esto quiere decir que todo lo que se hace en la industria de la big data es poco ético o ilegal? La primera respuesta es que, por supuesto, no. La segunda es que vivimos rodeados de procesamiento de grandes cantidades de datos: desde que vamos al supermercado hasta cuando pedimos un crédito en el banco. Podríamos decir que todos esos usos de los datos nos están "manipulando" y, sin embargo, no los asociamos con esa idea. Pero sí nos parece así cuando se hace con fines políticos. Es curioso.
El procesamiento de datos como insumo de las campañas políticas no es ilegal. Como en toda industria, en el marketing político las nuevas herramientas se incorporan. Lo importante es que estas se hagan respetando las leyes de protección de datos personales y la ética propia de cada profesión. En el caso de Cambridge Analytica, es importante saber que sus directivos actuaron de manera ilegal, fueron chapuceros en su manejo profesional y en su forma de vender sus servicios a políticos que, a su vez, los compraron. Y que, en consecuencia, se tuvieron que declarar culpables. Pero esto no implica que todas las formas de procesar información deban necesariamente romper las reglas de la privacidad.
2. "Las empresas de tecnología tienen valor porque explotan los datos de la gente". Lo dice Brittany Kaiser, una ex-Cambridge Analytica que no tuvo problema en ganar dinero durante su paso por la empresa y, ahora, arrepentida, se da cuenta de esta verdad mientras se confunde el agua azul de una pileta con el Golfo de Tailandia. Es cierto, quienes venimos escribiendo sobre estos temas decimos que nosotros, las personas comunes, intercambiamos servicios de estas empresas por nuestros datos. Lo que omite Brittany es que las empresas no necesitan más datos de los que ya tienen. Todo lo que hoy están obteniendo está de más y sirve para ir más allá: para entendernos y controlarnos, como señala Shoshana Zuboff en La era del capitalismo de vigilancia.
Entonces ¿cuál sería el siguiente paso? Que esas empresas sean más claras respecto de qué datos están usando y para qué. Eso es lo que demanda el profesor David Carroll durante todo el documental y no obtiene resultado. Justamente, porque implicaría un cambio estructural del modelo. Si hoy estamos en la era de la big data, esos grandes datos todavía están haciendo ricos a unos pocos. Pero todavía no existe una big data de la gente común. Facebook lo sabe. Por eso, no le afecta haber sido multada con US$5.000 millones. Fue cómplice de un delito. Pero aún mantiene su negocio abierto.
3. "Vemos que los gobiernos autoritarios van en aumento. Y todos usan esta política de odio y temor de Facebook". Lo dice Carole Cadwalladr, la periodista que tiró de la soga para que hoy podamos hablar de Cambridge Analytica. Cadwalladr es una excelente y valiente reportera. Sin embargo, recurre al lugar común de asegurar que el triunfo de Jair Bolsonaro, el de Trump o algunas matanzas en lugares en conflicto tuvieron como origen el odio que se genera cuando pasamos tiempo en las redes. Vale decir que la elección de gobiernos reaccionarios y los crímenes de odio ocurrían antes de Facebook.
¿No será que hay otras razones en la base de los crímenes? ¿No será que la población armada y la falta de planes de futuro encuentra que solo a través de las redes es importante? Si todo es culpa de Facebook, entonces, la explicación debe estar errada, porque el mundo siempre ha sido más complejo.
4. "Todos somos responsables. La pregunta es: ¿qué hacemos con esa responsabilidad?". Lo dice un exejecutivo de Cambridge Analytica. Y, desde esta columna, le decimos que no. Que la idea de pensarnos a todos como seres manipulables sin capacidad de decisión es muy peligrosa: vuelve invisibles a los verdaderos culpables.
Cambridge Analytica se declaró culpable. Facebook fue hallada culpable. Los gobiernos y las empresas (no solo las que manipulan datos de política, sino las que manipulan todo tipo de datos) son culpables. Lo que ellos tienen para decirnos a nosotros es que "la tecnología avanza tan rápido que no llegamos a entenderla, entonces, siempre habrá otro Cambridge Analytica". Ahí está la trampa. Porque la tecnología no es, de por sí, imparable. Si fuera por eso, en Argentina, este año estaríamos votando con máquinas. Pero un grupo de personas valientes el año pasado demostró que eso era peligroso para la democracia y no sucedió.
Para que en el futuro no ocurran más Cambridge Analytica es importante que no pensemos que la tecnología siempre tiene que avanzar por delante de nuestra voluntad. Ni de las leyes que nosotros creamos para ponerles marcos para protegernos a nosotros, las personas. Por empezar, el gobierno que asuma el próximo diciembre tiene en el Congreso una ley nacional de datos personales para actualizar. Podemos involucrarnos.