¿Cuáles mentiras incitan al odio y cuáles no? Facebook tampoco lo sabe
Facebook alguna vez fue la empresa más ágil de su generación. La velocidad con la que se adaptaba a todos los desafíos era legendaria. Solo necesitó cerca de una década para pasar de ser una empresa emergente surgida de un dormitorio universitario a la plataforma de comunicaciones más grande e influyente del mundo.
Sin embargo, han pasado dos años de la campaña presidencial estadounidense en la que la empresa fue un vector principal de desinformación e interferencia política orquestada por un Estado. Facebook aún parece paralizada sin saber cómo responder.
En intercambios con reporteros y legisladores a lo largo de la semana pasada, los líderes de la red social —entre ellos Mark Zuckerberg , su director ejecutivo— se han mostrado casi cómicamente torpes al responder las preguntas más básicas sobre los retos que enfrenta Facebook. Zuckerberg argumentó en una entrevista con la periodista Kara Swisher que la red social no prohibiría el contenido de los negacionistas del Holocausto en el sitio porque "hay cosas que distintas personas malinterpretan". Más tarde explicó que había muchas otras formas en que Facebook podría penalizar a quienes publicaran ese tipo de contenido. Sin embargo, no pudo dilucidar más.
Los comentarios de Zuckerberg son parte de un patrón más amplio. Cuando se les cuestiona de manera directa acerca del daño en el mundo real causado por la desinformación en su servicio, los ejecutivos de Facebook expresan su dolor, piden paciencia, proclaman su incansable compromiso con la neutralidad política e insisten en que están tan sorprendidos como los demás por el simple hecho de encontrarse en una posición que los obliga a establecer reglas de discurso para miles de millones de personas.
Cuando testificó ante el Congreso en la primavera, Zuckerberg juró hacerse cargo de las preocupaciones de los legisladores sobre el sitio. Aunque su negocio ha seguido prosperando, en repetidas ocasiones les advirtió a los inversionistas que tomaría medidas para abordar el impacto social de Facebook que podrían afectar negativamente su misión principal.
Creo que Facebook está intentando convencernos de que no son editores con responsabilidades, pero es claro que lo son
No obstante, las tortuosas reflexiones de los ejecutivos en las últimas semanas sugieren que la tarea que tienen por delante sigue siendo difícil. La empresa que alguna vez se destacó por ser innovadora —su lema era "Muévete rápido y rompe cosas" y ponía afiches en sus oficinas en los que les preguntaba a sus empleados: "¿Qué harías si no tuvieras miedo?"— ahora es lenta, soluciona poco y no toma postura alguna.
"Creo que Facebook está intentando convencernos de que no son editores con responsabilidades, pero está claro que lo son", dijo Sarah Szalavitz, directora ejecutiva de la agencia de diseño 7Robot, quien ha seguido de cerca los esfuerzos de las empresas de redes sociales para corregir sus deficiencias. "Pero necesitan tener una perspectiva".
El alboroto actual comenzó cuando un reportero de CNN, Oliver Darcy, hizo una pregunta obvia en una conferencia de prensa que Facebook convocó para explicar su nuevo plan para combatir la desinformación: por qué permitir que Infowars, un sitio que transmite teorías de conspiración —entre ellas que el tiroteo de la escuela de Sandy Hook fue falso—, tenga una página en Facebook, preguntó Darcy.
Según lo que percibió la periodista, los ejecutivos de Facebook parecieron sorprendidos por la pregunta. John Hegeman, director del Canal de Noticias de la red social, titubeó al responder que "el solo hecho de ser falso no viola los estándares de la comunidad" y que Infowars era una organización con un "punto de vista distinto".
Más tarde, Facebook argumentó que vetar a organizaciones que constantemente divulgan desinformación "se opondría a los principios básicos del libre discurso". La empresa insistió en que, aunque Infowars y otros sitios que publican desinformación no están vetados, podrían recibir penalizaciones. Facebook ha contratado a decenas de organizaciones que se dedican a verificar hechos en todo el mundo; cuando estas determinan que un artículo específico de Infowars es falso, la gente puede compartirlo con sus amigos, pero Facebook lo relega tanto que la mayoría no lo llega a ver.
Parte del motivo por el que Facebook defendió a Infowars se volvió evidente esta semana en el Capitolio cuando Monika Bickert, presidenta de Gestión de Políticas Globales de Facebook, asistió a una audiencia del Congreso junto con otros ejecutivos de redes sociales para responder preguntas acerca de si tenían sesgos en contra de los conservadores. En la audiencia, Bickert se disculpó con Diamond y Silk, dos estrellas de las redes sociales que apoyan a Trump, quienes afirmaron que habían recibido un trato injusto por parte de Facebook.
Después llegaron los comentarios de Facebook ante las preguntas de Swisher, el miércoles pasado, acerca de los negacionistas del Holocausto, y la cuestión sobre lo que Facebook permitiría y lo que no se volvió aún más confusa.
Incluso si ignoráramos la extraña idea de Zuckerberg de que hay quienes niegan el Holocausto sin mala intención solo porque no están bien informados acerca del pasado, su argumento planteó muchos otros problemas, entre ellos el del discurso de odio. El código de conducta de Facebook prohíbe el discurso de odio, al que define como ataques contra personas con base en "características protegidas" como la raza, la etnia o la religión. ¿Acaso la negación del Holocausto no entra en esa categoría?
Una portavoz de Facebook explicó que sería posible, en teoría, negar el Holocausto sin hacer necesario aplicar la cláusula contra el discurso de odio de Facebook.
Eso no fue todo. Facebook también presentó una nueva política acerca de la desinformación que complica el asunto todavía más. La empresa dijo haber decidido que, en realidad, eliminaría —no solo relegaría— ciertas publicaciones falsas si determinaba que podrían fomentar violencia inminente.
La política es global, pero hasta ahora solo se aplica en Birmania y Sri Lanka, donde las publicaciones de Facebook se han vinculado con la limpieza étnica y el genocidio. Además, la línea que divide lo que en verdad constituye violencia inminente de lo que no es muy cambiante, dijo la empresa; aún están "modificando" sus políticas, y las reglas podrían variar.
En resumen, Facebook está profundamente comprometida con la libre expresión y permitirá que la gente publique casi cualquier cosa, incluyendo contenido sobre la negación del Holocausto, a menos que se utilice discurso de odio, en cuyo caso la empresa podría eliminar el contenido. No obstante, cuando una publicación contenga una imprecisión en los hechos, no se eliminará, sino que se mostrará a menos personas, lo cual reducirá su impacto.
Por otro lado, si se determina que la desinformación incita a violencia inminente, Facebook la eliminará, aunque no sea discurso de odio. Pero, a final de cuentas, si un sitio miente en repetidas ocasiones, divulga teorías de conspiración o incluso incita a la violencia, podrá seguir estando en el Facebook porque, en realidad, no hay mentiras que solo por el hecho de serlo puedan expulsarte de la red social.
Todo esto no resiste una evaluación básica: ni siquiera es coherente. Es una mezcla de declaraciones y excepciones y excepciones de las excepciones.
"Creo que sí se puede poner límites claros al contenido de odio que no sean así de complicados", dijo Szalavitz. "La negación del Holocausto es odio. Eso no es difícil de comprender".
Otras noticias de Facebook
Más leídas de Tecnología
En enero. ChatGPT prepara una función clave para transformarse en un verdadero asistente
¿Viable? La impactante predicción de Elon Musk sobre los viajes entre New York y Londres en 30 minutos
¿Chau Siri? Ya está disponible Gemini, la IA de Google, en el iPhone
J.Lo. Así se vería Jennifer López si fuera un personaje de cómic, según la inteligencia artificial