Plataformas y censura: de la opacidad a la transparencia
A propósito de la decisión de varias plataformas de anular la presencia de medios estatales rusos, se hace necesario un debate sobre cómo se modera la libertad de expresión en internet y quiénes deben participar de esa tarea
- 8 minutos de lectura'
A pocos días de iniciarse la invasión de Rusia a Ucrania, las corporaciones digitales líderes de la industria mundial -casi todas con sede en Occidente- iniciaron una serie de medidas para aislar al gobierno de Vladimir Putin. Se restringió la publicidad en medios en Facebook, los videos de YouTube (de Google), y empresas como Apple, Microsoft, Netflix acotaron servicios.
La empresa de origen chino TikTok, por otro lado, puso en pausa sus operaciones en Rusia respuesta a una nueva ley del gobierno de Putin para sancionar con hasta 15 años de prisión a los responsables de difundir información falsa.
Entre las medidas que dejaron a los ciudadanos del mundo con limitaciones en su acceso a la información, una en especial fue discutida. Twitter decidió marcar con la etiqueta “medios afiliados al gobierno” a periodistas y colaboradores de medios rusos como RT (Russia Today) y Sputnik. Rápidamente, organizaciones de derechos humanos y asociaciones de periodistas alertaron sobre la medida: por lo pronto, era algo desproporcionada y opaca en sus criterios. La equiparación entre medios de comunicación y trabajadores de prensa también dejó en claro la confusión de una medida tomada sin la revisión de los mínimos estándares internacionales de libertad de expresión y de prensa.
¿Qué criterios se habían tomado para el señalamiento, realizado además sin posibilidad de apelación durante días hacia la plataforma? En documentos públicos, desde 2020, la compañía venía avanzando en etiquetar a medios “afiliados directa o indirectamente a un actor estatal” de ciertos países del mundo. Entre ellos, RT y Sputnik. En sus comunicaciones dejaba en claro que no marcaría la “afiliación estatal” a la BBC inglesa y la National Public Radio estadounidense, ya que estos medios garantizaban “independencia editorial”. Nada más decía de cualquier otro medio, de Occidente o de otro país: quedaba a discrecionalidad de una regulación imprecisa.
Días después, los periodistas señalados vieron que la etiqueta desapareció. La empresa tampoco ofreció explicaciones sobre el cambio de decisión: la crisis pasó y la empresa volvió a la normalidad, pero ¿qué es la normalidad para las plataformas digitales, sino moderar los millones de contenidos por segundo que se publican?
Trabajo full time
Solemos pensar que las plataformas de redes sociales tienen en la moderación de contenidos un trabajo extra. Algo que hacen “al terminar el día”, fuera de horario, como sacar la basura para tener la cocina limpia o hacer una clase de yoga para descansar mejor. Sin embargo, como señala el investigador estadounidense Talerton Gillespie, esto es justamente al revés: moderar es el trabajo central de las plataformas.
Google, Amazon y Facebook toman millones de decisiones de moderación por día, desde las más sencillas hasta las más complejas. A través de sus algoritmos priorizan contenidos que otros publican. Los muestran con más o menos frecuencia, de acuerdo a interacciones o a decisiones publicitarias (con las que ganan dinero). También, para hacer que los espacios digitales sean más tolerables para sus usuarios, evitan que haya publicaciones que (de acuerdo a cada país, región o circunstancia) resultan ofensivas para las comunidades. Incluso, se ocupan de lidiar con todo tipo de delitos online. Ordenan un espacio creciente de discursos de odio, raciales, de género.
Desde 2016, también intervienen en un fenómeno tan difícil de determinar como sujeto a problemas: la “desinformación”. Con la victoria de Donald Trump, el Brexit y en 2018 la investigación de Cambridge Analytica, las redes sociales se convirtieron en el chivo expiatorio de cualquier falsa noticia del mundo. Las plataformas, en especial Facebook, comenzaron a recibir el mote de divulgadoras de operaciones falsas, como si la mentira no hubiera circulado antes en operaciones o en medios tradicionales. Lo mismo ocurrió durante la pandemia: la moderación frente a las campañas campañas antivacunas o anticovid necesitaron reforzarse de manera acelerada en las redes.
Con todo este trabajo, está claro que moderar y definir lo bueno y lo malo en las redes no puede -de ninguna forma- ser un trabajo circunstancial para las empresas. De hecho, las compañías dedican enormes recursos económicos y humanos (propios y de empresas tercerizadas) a ordenar un sinfín de posteos, fotos y videos. Lo hacen, en líneas generales, con medios automatizados (programas, robots que detectan palabras claves por ellos) y con medios no automatizados (humanos y humanas que revisan estos millones de pixeles, caracteres y fotogramas). También cuentan con la ayuda (más o menos interesada) de los usuarios, que envían denuncias cuando consideran que algún contenido, persona, foto o video no debería permanecer en la red. Pero siempre son ellas las que tienen la decisión final de si algo sigue visible, y cómo.
Lo bueno y lo malo
¿Cómo se hace, en un medio planetario como internet, para decidir qué queda y qué no? El gusto de los consumidores es subjetivo. Las culturas, distintas. Las posiciones ideológicas y afectivas determinan mucho más lo que denunciamos en una red social que una supuesta racionalidad. En cierto punto, el mundo entero, al mismo tiempo, le pide a las plataformas que decidan sobre esos afectos y efectos de lo que ve en línea. Eso, en una guerra con ataques diarios, refugiados cruzando fronteras y muertes injustas, se exacerba.
Hasta hace un tiempo, había un “consenso de los conectados” (según Rebecca McKinnon) de la moderación: nos parecía bien que las plataformas tuvieran mecanismo de moderación contenidos ciertamente problemáticos. Coincidíamos en que las compañías tecnológicas debían ocuparse de mantener al entorno en línea protegido de delitos que afectaran la seguridad y la integridad de las personas (pedofilia, violencia sexual, contenidos y situaciones donde aparecen víctimas de todo tipo). Nosotros, los conectados, le dimos una carta blanca a las plataformas para ejercer la moderación. Pero no les preguntamos demasiado cómo hacían ese trabajo.
Las plataformas, por su parte, establecieron reglas privadas, sin debates amplios ni rendición de cuentas suficientes. La auto-regulación fue la ley. Entonces empezaron los errores y las omisiones, cada vez más frecuentes: la censura de contenidos sin consulta, la limitación de medios o activistas, el etiquetado abusivo y con motivos desproporcionados.
Confiados en que en las redes concentran los problemas que afectan a la democracia, y creyentes que las plataformas cuentan con mecanismos infalibles, creamos un monstruo. El de unos enormes custodios privados del discurso público, sobre los que se ejerce muy poco o nulo control. Pero estamos a tiempo de resolverlo.
Repartir el poder
¿Quién define la independencia editorial, la afiliación estatal o el etiquetado en el caso de las plataformas? En general, son los mismos equipos de las compañías. En algunos casos, como el de Twitter y otras compañías, lo hacen con la ayuda de consejos asesores: organizaciones de la sociedad civil, academia, usuarios digitales. Sin embargo, se requiere todavía ampliar esa participación y esa transparencia, tanto en la composición de esos consejos como de las reglas con las que se opera.
Democratizar el modelo actual de toma de decisiones de las plataformas será, ciertamente, más complejo. Pero si las compañías insisten con mantenerse como las únicas custodias de los espacios online, serán cada día menos capaces de rendir cuentas a una ciudadanía que les está demandando más transparencia (y que es, por otro lado, su consumidor, con derechos).
Se solía decir que las plataformas no necesitan rendir cuentas porque son empresas privadas. Está claro que esa ya no es una excusa. Desde hace tiempo, y a partir del conflicto en Ucrania, hemos visto una espiral de censura sobre derechos humanos básicos como la libertad de expresión. Los mismos tuvieron en las plataformas aliados corporativos desde los cuales realizar boicots y medidas de castigo, tanto desde los países de Occidente como desde Rusia. Ya no es más una discusión de empresas privadas decidiendo cómo manejan sus contenidos.
En la cuestión, todos los países, incluso la Argentina, tenemos algo que decir. Estamos invitados a la conversación (nos inviten o no). Solemos pensar que no tenemos nada que hacer frente a corporaciones tan poderosas. Pero sí tenemos: nuestras propias leyes, la Constitución, la Convención Interamericana de Derechos Humanos, entre otras, contienen instrumentos legales que protegen los derechos de las personas frente a, por ejemplo, la censura o el cercenamiento de la libertad de expresión. No se trata siempre de pensar nuevas regulaciones, sino de abrir la discusión para que, en caso de crisis, pero sobre todo en tiempos de normalidad, los derechos primen por sobre las decisiones arbitrarias.
Cambiar el enfoque es imprescindible. Si hasta ahora la moderación no contó con la suficiente participación, es hora de tenerla: más mujeres, comunicadores para decidir sobre cuestiones de comunicadores, diversidades para pensar sobre diversidades, y así podemos seguir. Las leyes de internet no pueden seguir siendo ni tan privadas ni tan de abogados ni tan de hombres blancos.
Natalia Zuazo es consultora en política y tecnología. Directora de Salto Agencia. Autora de Guerras de internet y Los dueños de internet.
Otras noticias de Guerra en Ucrania
Más leídas de Tecnología
En enero. ChatGPT prepara una función clave para transformarse en un verdadero asistente
Para incentivar más descubrimientos. Cómo funciona la nueva IA de la Nasa que recopila toda la información científica de la Tierra
Seguridad. Las tres nuevas herramientas de Google para proteger tu celular si te lo roban
Darío Werthein, presidente de Vrio Corp. “Ya estamos en el nuevo mundo que nos impone la IA”