Antes de que estallara el escándalo de Cambridge Analytica, a Mark Zuckerberg lo acusaron de permitir la propagación de noticias falsas, la manipulación de opiniones políticas y la incitación al racismo a través de sus algoritmos. Él reconoció que la red social se le estaba yendo de las manos, pero ¿por qué sigue sin revelar cómo decide qué vemos y qué no en nuestros muros? ¿Qué nos oculta?
Mark Zuckerberg, el quinto hombre más rico del mundo, recordará 2017 como el año en que se volvió adulto. De su espíritu adolescente solo le quedó el uniforme: las remeras grises con las que sale de su "discreta" mansión de US$7 millones en Silicon Valley todas las mañanas. Durante el resto del día, el dueño de la red social y de un patrimonio de más de US$70.000 millones tuvo que aprender a esquivar las balas y a solucionar los problemas de un imperio.
"Facebook tiene mucho trabajo por hacer. Ya sea para proteger a nuestra comunidad del abuso y del odio, defenderla de las interferencias de los Estados y hacer que el tiempo aquí sea bien usado", escribió como mensaje de Año Nuevo 2018 en el muro de la red social que él mismo creó, sin sospechar que tres meses después estallaría el escándalo que hoy lo tiene en los portales, tapas y redes del mundo. El año anterior, su compañía había alcanzado los 2.000 millones de usuarios conectados, es decir, el 30% de las personas del mundo. Pero el hito no lo encontró con espíritu festivo: el Zuck adulto parecía haberse dado cuenta de que manejar una empresa en la que cada persona pasa un promedio de 50 minutos por día era una cosa seria. Tal vez, incluso, se equiparaba a la responsabilidad de un líder mundial.
Tras más de una década sosteniendo que Facebook era una empresa de tecnología que no intervenía en cuestiones políticas o sociales, tuvo que admitir que su influencia superaba la red de conexiones universitarias que había montado en 2004. Admitió entonces que su compañía estaba cometiendo "muchos errores" y dijo que dedicaría su año a "resolver esos problemas juntos". En su lista de propósitos para cumplir, se comprometió a rodearse de más expertos en historia, cívica, filosofía política, medios y temas de gobierno, además de seguir confiando en sus ingenieros y científicos de datos. Y, para sorpresa de todos los que venían alertando del problema de concentrar la tecnología en unas pocas empresas, escribió sobre las críticas a la gran centralización del poder de estas empresas, hoy alejadas del rol idealizado que alguna vez tuvieron como emancipadoras de las sociedades: "Hoy, muchos perdieron la fe en esa promesa", admitió. "Con el crecimiento de un pequeño grupo de grandes compañías tecnológicas –y gobiernos que usan la tecnología para espiar a sus ciudadanos–, mucha gente ahora cree que la tecnología centraliza el poder en vez de descentralizarlo". Por primera vez, el creador de Facebook asumía que escuchaba las críticas a su fenomenal poder.
Guerra en redes
La preocupación de Zuckerberg no era casual. En 2017, mientras él cumplía el recorrido que le había preparado su equipo de prensa por el Estados Unidos profundo en una campaña de marketing para mejorar su imagen, los problemas explotaban. Las batallas habían empezado en 2016, con el "escándalo de las tendencias", que acusaba a su plataforma de manipular los temas de actualidad que los usuarios veían en sus muros. Luego, tras el triunfo de Donald Trump, el "problema de las noticias falsas" señaló a Facebook como uno de los responsables de dañar la democracia, al haber funcionado, entre otras cosas, como el intermediario para difundir campañas de publicidad pagadas por el gobierno ruso contra su país y como medio para difundir noticias falsas que beneficiaban al republicano (aunque en la empresa y en Silicon Valley, en general, la candidata preferida era la demócrata Hillary Clinton). El escándalo preocupó a dueños de medios, ONG y hasta a políticos, que anunciaron proyectos gubernamentales para luchar contra la diseminación de mentiras, con la red social como intermediaria (y beneficiaria del negocio). Durante 2017, también, la gran red social comenzó a enfrentar los resultados de otros hallazgos que desnudaban la poca transparencia de su algoritmo (la fórmula que ordena qué vemos y qué no vemos en nuestros muros) y casos de censura de contenidos reiterados, que pusieron a los abogados de la compañía a enfrentar los primeros juicios de este tipo.
En términos económicos, Facebook y Zuckerberg seguían ganando. El 2017 terminaría con ingresos de casi US$13.000 millones, es decir, un 48% más que el año anterior. Sin embargo, su hechizo había comenzado a romperse para la sociedad.
Las redes sociales, que alguna vez se nos habían presentado como un espacio de diálogo para conocer más opiniones y mejorar el mundo –la famosa idea de la "democratización" acompañó a la red en sus inicios–, empezaron a verse como otro espacio de enfrentamiento. "La guerra se hace viral: Las redes sociales están siendo usadas como armas a lo largo del mundo", alertaba ya en 2016 una tapa de la revista The Atlantic. Ese año, tras el ascenso de Trump, el mundo anglosajón se sumergió en un pánico moral y se preguntó si la mezcla de la tecnología con la política no sería un trago letal para la democracia.
Facebook reconoció que su crecimiento había tenido efectos políticos "no previstos". Hizo algunos cambios en la plataforma para denunciar informaciones falsas y comenzó a contratar a editores humanos para ubicar las metas sociales de la información por delante de los comerciales. A fines de 2017, Mark Zuckerberg anunció que contrataría entre 10 y 20.000 personas en el mundo para moderar en forma detallada cada contenido problemático reportado por la comunidad. En octubre de ese año, en Essen, una zona industrial de Alemania, se inauguró una oficina con 500 empleados que cobran entre €10 y €15 la hora por revisar cada posteo, foto y video de la red social. Junto a otro espacio en el este de Berlín, el lugar es gestionado por la compañía Competence Call Center (CCC), a quien Facebook, PayPal e eBay, entre otras empresas tecnológicas, contratan para lidiar con la información que aportan cada día los usuarios a las plataformas. Con escritorios transparentes, sillas negras y monitores Dell, los trabajadores realizan un trabajo repetitivo muy similar al de quienes revisan imágenes de cámaras de seguridad en los centros de monitoreo. Según sus responsables, el trabajo de moderadores de contenidos de las grandes plataformas crecerá en su demanda en los próximos años, tal como alguna vez se multiplicaron los call centers.
Pasados los primeros síntomas ("oh, en las redes son todas mentiras"), la preocupación dio paso a nuevas preguntas: ¿Cómo cambiaron las redes sociales la manera en que nos informamos? ¿Dónde encontrar la verdad, si también en ellas hay mentiras? ¿Será que nos hicimos adictos a las redes y tenemos que encontrar un nuevo equilibrio para vivir mejor? Junto con esas preguntas, algunos comenzamos a cuestionar otro aspecto, quizás el más peligroso de Facebook: la poca transparencia con la que maneja su enorme poder.
Problema viejo, monopolio nuevo
En nuestra época, la del imperialismo tecnológico, unos pocos monopolios concentran el poder: Microsoft, Google, Facebook, Uber. Los dueños de internet son plataformas y están reemplazando a los poderosos y millonarios de otras generaciones.
También la información y las noticias están concentradas. Facebook y Google son los nuevos guardianes o "gatekeepers" de las noticias y se llevan el 85% de los ingresos por publicidad digital del mundo. Ese poder de regular lo que vemos o no como noticias es una de las razones por las que Mark Zuckerberg es uno de los hombres más influyentes del mundo y su marca, Facebook, se volvió más valiosa que otras antes icónicas, como General Electric, Marlboro o Coca-Cola.
Facebook es el tercer sitio y la primera red social más visitada del planeta. En Argentina, es el sitio número uno en visitas, algo que se repite en casi toda América Latina, Europa y Asia. Si le sumamos sus otras propiedades, WhatsApp (1.300 millones de usuarios) e Instagram (700 millones), sus interacciones se acumulan en 4.000 millones de personas y sus ganancias se incrementan. Sus usuarios pasan cada vez más tiempo en esas plataformas, por lo tanto, ven más avisos publicitarios, que equivalen al 63% de los ingresos de la compañía. Los usuarios se sienten tan cómodos dentro de la plataforma que la interacción aumenta cuantas más personas se unen a ella, al contrario de lo que les sucede a otras compañías con sus productos, en los que el interés decae luego de la novedad inicial. En 2012, cuando Facebook llegó a 1.000 millones de usuarios, el 55% de ellos lo utilizaba todos los días. En 2017, con 2.000 millones, el uso diario trepó al 66%. Y su número de consumidores sigue creciendo un 18% al año.
En los últimos años, Facebook se convirtió en la principal fuente de noticias del mundo. El muro de nuestra red social es el lugar en donde leemos –clasificadas según la fórmula de la empresa– las novedades. Según estudios de Ogilvy Media y Pew Research Center, aunque no dejemos de utilizar los medios como la televisión, los diarios o la radio, el 40% y el 60% de las personas del mundo nos informamos por medio de las redes sociales. En Argentina, después de la televisión, el 60% de los jóvenes elige las redes para informarse.
Luego del triunfo de Trump en las elecciones de 2016 en Estados Unidos, Facebook recibió la acusación más grave, antesala del escándalo actual. La red social fue señalada por haber aumentado la polarización de una sociedad ya dividida, especialmente por conflictos raciales. Su diseño algorítmico nos hacía convivir con otros en burbujas cerradas y, desde allí, lanzar catapultas llenas de odio a los que no pensaran como nosotros. También, se la señaló como la culpable de expandir la epidemia de noticias falsas, una acusación que fue la excusa preferida de políticos y dueños de medios periodísticos para reclamar a la red social por su poder inusitado.
Facebook fue señalado como el responsable de llevarnos a una sociedad cada vez más dividida. En 2011, en su libro El filtro burbuja, el activista y escritor norteamericano Eli Pariser comenzó a advertir sobre las consecuencias de informarnos a través de medios sociales. Pariser sostiene que las redes nos imponen burbujas de filtros donde las decisiones ya no solo las toman personas, sino también algoritmos programados para mostrarnos lo que más nos gusta para que pasemos una gran cantidad de tiempo en ellas. Vivimos en mundos cómodos, donde leemos cosas que nos gustan y nos interesan, pero no necesariamente donde nos enteramos de cosas distintas o importantes. "La pantalla de tu computadora es cada vez más una especie de espejo unidireccional que refleja tus propios intereses, mientras los analistas de los algoritmos observan todo lo que cliqueás", dice Pariser.
La lógica que promueve las burbujas en las redes es a la vez tecnológica y económica y responde a una palabra clave: personalización. Los dos objetivos de Facebook son crecer y monetizar, es decir, obtener dinero a partir de la publicidad que recauda cada vez que alguien hace clic en sus anuncios. Para esto, tiene que hacer que pasemos la mayor cantidad de tiempo posible en su plataforma, lo que se logra haciéndonos sentir cómodos. Para eso, Facebook aplica un algoritmo llamado Edge Rank que hace que cada muro (o News Feed) sea personalizado, distinto para cada persona según sus gustos. Cada acción que realizamos se estudia al detalle para ofrecernos exactamente lo que nos gusta, tal como hacen en los restaurantes de tres estrellas Michelin, donde en la información de cada cliente se especifica con cuánta sal prefiere la ensalada y a qué punto degusta mejor la carne. En la cuenta final de Facebook, lo que importa es la permanencia dentro de su ecosistema. Si eso implica estar expuestos a contenidos verdaderos, falsos, de procedencia cierta o dudosa, no incumbe a su diseño. O sí, pero se pasaba por alto en favor del éxito comercial. O así fue hasta 2016, cuando las quejas y las preguntas sobre la responsabilidad de la red social en la difusión de noticias falsas comenzaron a acumularse. Y entonces, además del dinero, empezó a importarle la verdad.
Con noticias verdaderas o falsas, la empresa de Mark Zuckerberg todavía no explica cómo funciona su algoritmo, es decir, el mecanismo con el que decide qué vemos y qué no. Tampoco por qué, con una frecuencia cada vez mayor, algunos contenidos desaparecen de los muros de sus usuarios sin infringir las normas (por ejemplo, sin publicar imágenes de violencia), dando sospecha a acciones de censura por motivos políticos o ideológicos.
Mejor no hablar del algoritmo
"La primera regla del Club de la Pelea es: Nadie habla sobre el Club de la Pelea", decía Brad Pitt antes de empezar la lucha en la película de David Fincher basada en el libro de Chuck Palahniuk. Con más énfasis, por si a alguien no le había quedado claro, repetía: "La segunda regla del Club de la Pelea es: Ningún miembro habla sobre el Club de la Pelea". La lógica de Facebook con su algoritmo funciona igual. Dentro de la empresa y fuera de ella nadie habla del algoritmo. Es más, gran parte de la lógica de la compañía responde a no revelar la fórmula, y una parte de su presupuesto se destina a financiar equipos de relaciones públicas para que realicen todo tipo de maniobras disuasorias para ocultar la receta. Sin embargo, mientras sostienen ese modelo opaco para afuera, las reglas de Facebook se aplican a todos los usuarios de Facebook que den "Aceptar" en sus términos y condiciones.
Pedirle a Facebook información sobre su algoritmo es una carrera imposible. Mientras escribía esta nota y mi próximo libro, hice varios pedidos para que la empresa, a través de su departamento de prensa, su agencia de comunicación externa y su encargada de asuntos públicos para América Latina me concediera una entrevista, o al menos una charla para explicarme –como periodista especializada en el tema– ese asunto. Con una amabilidad absoluta (llegué a creer que con las encargadas de prensa habíamos sido amigas en el pasado y yo no lo recordaba), las representantes de la empresa primero me pidieron "un poco más de información sobre el foco de la nota", tras lo que alegaron repetidas dificultades para "coordinar la entrevista por un tema de agenda". Al responderles que podía esperar a que la persona en cuestión despejara sus compromisos, me escribieron con un "te quería dejar al tanto de que no tengo una previsión de tiempos" y me ofrecieron conversar con otra persona de la empresa. Respondí que sí, con gusto. Pero luego transcurrieron seis mails durante tres semanas en los que, por una razón u otra, el encuentro no podía concretarse. También pedí que me compartieran un material que ilustrara cómo funcionaba el algoritmo. Facebook me respondió que "no contaba con ese material". Pero mientras tanto, a través de las redes sociales, la misma empresa ofrecía esa información de manera privada a periodistas (profesionales o aficionados), influencers de redes sociales y personalidades del mundo del espectáculo. La compañía compartía esa información con ellos, por una razón económica: les interesaba que entendieran la lógica para generar contenidos patrocinados con publicidad. "Están en su derecho", me dijo alguna vez un amigo periodista sobre el doble estándar de la empresa. En cierto punto, como empresa, lo están, acepté yo. Pero también, dada su influencia en los asuntos públicos, Facebook debería rendir cuentas sobre cómo maneja la información.
Durante 2016 y 2017, la periodista y activista Julia Angwin, junto con un equipo de investigación del sitio Pro Publica, dio a conocer una serie de artículos que desnudaron la falta de transparencia del algoritmo de Facebook y el doble estándar de la empresa. Su trabajo también fue esencial para desenmascarar sus mecanismos corporativos.
Angwin reveló que la plataforma publicitaria de Facebook permitía segmentar anuncios de venta y alquiler de casas solamente a blancos, excluyendo a personas de piel negra de las ofertas, asumiendo que son compradores menos atractivos. También a madres con niños en edad escolar, personas en sillas de ruedas, inmigrantes argentinos e hispanoparlantes. A todos ellos se los podía, explícitamente, eliminar de los destinatarios inmobiliarios de las plataformas, lo cual violaba la Ley de Acceso Justo a la Vivienda de Estados Unidos, que prohíbe publicar avisos que indiquen "cualquier preferencia, limitación o discriminación basada en la raza, el color, la religión, el sexo, el estatus familiar o el país de origen" de las personas interesadas. Sin embargo, en Facebook esto no solo se podía hacer, sino que los anuncios eran aprobados por la plataforma, luego de revisarlos, en unos pocos minutos. Bajo sus propias normas, la red social podría haber rechazado estos anuncios. Sin embargo, su política prefería no perder los ingresos de esas publicidades a cambio de violar una ley.
Pro Publica también descubrió que la red social permitía publicar avisos segmentados a la categoría "odiadores de judíos". Anteriormente, la compañía ya había recibido quejas y había quitado de su lista de publicidad a la categoría "supremacistas blancos", luego de la oleada de ataques contra comunidades negras en todo Estados Unidos. Con el descubrimiento de Angwin, la empresa debió eliminar también las categorías antisemitas y prometió monitorear mejor los avisos publicados para que el mecanismo de inteligencia artificial no creara sesgos de odio. Sin embargo, en otro de sus trabajos, el equipo encontró que el algoritmo protegía a los hombres blancos de contenidos de odio, pero no generaba los mismos mecanismos de defensa para evitar que los vieran los niños negros. Al escándalo se sumó la confirmación de que, durante las elecciones presidenciales de Estados Unidos en 2016, Facebook había permitido la creación de avisos ocultos desde 470 cuentas rusas contra Hillary Clinton. La compañía, que había intentado desestimar esta información durante un año, finalmente tuvo que aceptarla.
Estas historias demuestran que, por el momento, Facebook toma acciones para revertir sus errores solamente después de que se descubre una nueva manipulación o censura en su plataforma. Y que lo hace cuando estos hechos salen a la luz a través de investigaciones o denuncias externas. Entre tanto, la empresa sigue ganando millones a través de los anuncios; sus equipos de relaciones con la comunidad cubren estos problemas con filantropía, y sus departamentos de prensa organizan eventos publicitarios para periodistas amigos, mientras niegan información a los periodistas que les hacen preguntas concretas sobre el funcionamiento de su plataforma. Si Facebook dice estar comprometido en la lucha contra la publicación de noticias falsas, ¿no debería promover la transparencia de la información empezando por su propia empresa?
Lo que está en juego no es la información verdadera de ayer o de hoy, sino que, si continuamos en este camino de oscuridad, no podremos diferenciar nada de lo que se publique en el futuro. A Facebook, por ahora, no le interesa hablar del algoritmo. Pero si a nosotros nos interesan las conversaciones públicas, tenemos que hacer visible eso que las empresas quieren esconder.
Facebook es como la dopamina
Además de Computación, Mark Zuckerberg estudió Psicología. La clave de la adicción que ejerce Facebook sobre nuestra atención está en el corazón de su interfaz y su código. "Está diseñado para explotar las vulnerabilidades de la psicología humana", dijo Sean Parker, el primer presidente de la empresa. "Las redes sociales se diseñan pensando cómo consumir la mayor cantidad de tiempo y atención posible de los usuarios. Eso se hace dándote un poquito de dopamina cada tanto, cuando alguien pone me gusta o comenta una foto o un posteo. Eso te lleva a querer sumar a vos tu propio contenido, para conseguir un feedback de validación social", explicó Parker. Desde esos inicios hasta hoy, ese poder se amplificó tanto que se habla de las redes sociales como de una nueva epidemia de tabaquismo, que por ahora avanza sin gran preocupación, pero que quizá en un futuro sea un problema de salud pública.
Los efectos negativos en nuestra salud mental y física ya están comprobados en estudios científicos a gran escala de universidades de todo el mundo, y también por el propio departamento de Ciencia de Datos de Facebook en sus experimentos de manipulación de nuestras emociones. Justin Rosenstein, el creador del botón "Me gusta" de la red social, admitió que su invento está teniendo efectos negativos. "Es muy común que los humanos desarrollen cosas con las mejores intenciones y que tengan consecuencias involuntarias negativas", dijo, haciendo un mea culpa. Además de hacer que "todos estén distraídos todo el tiempo", reconoció que el uso político de la plataforma, si no se controla, podría dañar seriamente la democracia. Como primera medida, Rosenstein, que también trabajó en Google, ya se borró de la red social. Con él, otros periodistas prestigiosos, como Farhad Manjoo del New York Times, están quitando las aplicaciones de sus teléfonos e iniciando un movimiento para dejar de usar las redes sociales como principal fuente de información.
*Natalia Zuazo es autora de Guerras de internet (Debate). Próximamente se publicará su segundo libro, Los dueños de internet.
Más notas de Facebook
Más leídas de Lifestyle
Alimentación. Las 11 reglas para vivir más años, según la familia más longeva del mundo
Secreto de jardín. El fertilizante ideal para hacer crecer las plantas en tiempo récord: se prepara en casa y es barato
Para considerar. El alimento que un cardiólogo recomendó no incluir jamás en el desayuno
Superalimento. La semilla que regula el azúcar en sangre, reduce el estrés y ayuda a dormir mejor