SAN FRANCISCO – A principios de este mes, la mayoría de los empleados de Facebook empacaron sus pertenencias y se prepararon para trabajar desde sus casas mientras el nuevo coronavirus se expandía por el mundo. Sin embargo, a pesar del mandato de la compañía, el gigante de las redes sociales no había pensado en cómo llevar adelante su tarea más sensible de manera remota: pornografía, terrorismo, expresiones de odio y otros contenidos indeseados de su sitio.
Las personas que realizan esta sensible tarea (casi 15.000 contratistas en 20 lugares de todo el mundo) continuaron yendo a la oficina hasta el 16 de marzo, cuando la presión pública, las protestas internas y las medidas vinculadas con la cuarentena en el mundo forzaron a Facebook a hacer una drástica movida para cerrar sus oficinas de moderación de comentarios y contenido.
Pero la decisión de Facebook de colocar a ese ejército de moderadores bajo la modalidad de licencia paga allana el camino para otro desafío, el de obligar a la compañía a vigilar la desinformación, los engaños médicos, los trolls rusos y la inconveniencia general de Internet sin ellos.
Si bien Facebook , YouTube , Twitter y otras compañías han promocionado durante mucho tiempo la inteligencia artificial y los algoritmos como el futuro de la vigilancia del contenido problemático, recientemente han reconocido que los seres humanos son la línea de defensa más importante. Esos contratistas, a quienes se les paga una fracción de lo que ganan los trabajadores a tiempo completo, pasan horas al día revisando material marcado como ilegal o perturbador, eliminando publicaciones que cruzan la línea y a menudo sufren daños psicológicos por la exposición.
Incluso así, el presidente ejecutivo de Facebook, Mark Zuckerberg, dijo el miércoles en una llamada a los medios que la compañía se verá obligada durante la pandemia a confiar más en el software de inteligencia artificial para tomar esas decisiones. La compañía también capacitará a los empleados a tiempo completo para que dediquen "atención extra" al contenido altamente sensible, como el relacionado con el suicidio, la explotación infantil y el terrorismo. Los usuarios deberían esperar más errores mientras Facebook clasifica el proceso, señaló, en parte porque una fracción de los seres humanos estará involucrada y porque el software toma decisiones más contundentes que las personas.
Zuckerberg reconoció que la decisión podría dar como resultado "falsos positivos", que incluyen la eliminación del contenido que no debe quitarse.
"Creará una solución intermedia respecto de otros tipos de contenido que pueden no tener riesgos físicos tan inminentes para las personas". Incluso así, espera capacitar a más personas lo más rápidamente posible porque estaba "personalmente bastante preocupado porque el aislamiento de las personas que se encuentran en el hogar podría conducir a más depresión o problemas de salud mental, y queremos asegurarnos de que estamos por delante de eso al apoyar a nuestra comunidad".
La admisión de Zuckerberg refleja las complejas elecciones y soluciones intermedias que los gigantes de Silicon Valley están manejando frente a una creciente crisis de salud global. Las compañías pueden proteger a los trabajadores y cumplir con las órdenes locales de quedarse en casa. Pero esa elección podría poner en peligro la seguridad de miles de millones de usuarios en todo el mundo, muchos de los cuales están en cuarentena en su hogar, navegando en Internet todo el día y expuestos a material que resulta potencialmente más perturbador que antes.
Por su parte, YouTube también anunció planes temporales la semana última destinados a depender más de los sistemas automatizados para reducir la cantidad de personas en la oficina, algo que la compañía advirtió que podría provocar un proceso de apelación más lento para los creadores de contenido de video y podría hacer que más contenido no revisado se excluya de la búsqueda o de su página de inicio. El mismo día, Twitter dijo que haría lo mismo. Debido a que los sistemas automatizados pueden causar errores, no suspenderá permanentemente las cuentas durante este período. Asimismo, la firma se encuentra evaluando priorizar la vigilancia de las violaciones potencialmente más dañinas.
Facebook, YouTube, Twitter y otras compañías de redes sociales se han enfrentado a desafíos importantes para controlar el contenido, desde el video en vivo publicado durante los tiroteos de Christchurch, Nueva Zelanda, el año último, hasta las campañas de desinformación de los trolls rusos durante las elecciones presidenciales de 2016. La decisión de enviar a los trabajadores a casa se produce durante un año de elecciones presidenciales, cuando los usuarios extranjeros y nacionales están tratando activamente de dar forma al debate público utilizando la desinformación que solo puede ser vista por el ojo de los seres humanos.
Esa presión aumenta a medida que se incrementa la desinformación sobre el nuevo coronavirus. En WhatsApp, propiedad de Facebook, los grupos de chat están difundiendo información no verificada sobre vuelos, hoteles y escuelas en relación con el virus, así como información errónea sobre posibles represiones gubernamentales y cómo se está propagando la enfermedad. En Facebook, circuló una carta falsa sobre un brote en Los Ángeles, y hubo publicaciones generalizadas sobre curas falsas y mentiras relacionadas con que el gobierno de E.E. U.U. creó el coronavirus.
No se trata solo de las redes sociales: algunos consumidores reciben mensajes de texto falsos en sus teléfonos en los que se advierte sobre un bloqueo nacional.
Después de las elecciones presidenciales de 2016, Facebook contrató a miles de moderadores externos en Filipinas, India, Dublín y Estados Unidos para vigilar el sitio y reforzar su reputación. Los moderadores, que trabajan para empresas tercerizadoras de servicios, como Accenture y Cognizant, son contratistas y generalmente reciben menos paga y menos beneficios que los empleados de Facebook.
La decisión de enviar a las personas a casa y confiar más en la tecnología para vigilar los sitios preocupó a los investigadores.
"No se ha avanzado lo suficiente en la inteligencia artificial como para quitar la mejor herramienta que tenemos: la inteligencia humana para discernir", dijo Mary Gray, investigadora principal de Microsoft Research y coautora de "Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass" (Trabajo fantasma: Cómo evitar que Silicon Valley construya una nueva subclase global", en español).
"Esto es un desastre. Estamos enfocados en mantener a las personas seguras e informadas mientras nos aseguramos de que puedan compartir información y conectarse entre sí durante esta crisis", dijo el portavoz de Facebook Drew Pusateri. "Pero, como dijimos en una actualización reciente sobre nuestra revisión de contenido, anticipamos que ocurrirán algunos errores a medida que nos ajustemos a una fuerza laboral modificada con una mayor dependencia en la automatización".
Facebook está haciendo el cambio en gran parte porque considera que el trabajo es demasiado sensible como para que los moderadores externos lo hagan desde su casa porque, entre otras razones, implica revisar las cuentas privadas de Facebook de las personas. La compañía también reconoce que es un trabajo traumático y que los trabajadores recibirían menos apoyo en casa. Por lo general, los moderadores trabajan en centros de llamadas donde cada movimiento, desde las pausas hasta las pulsaciones de teclas y los juicios sobre el contenido, se gestiona y supervisa fuertemente.
La compañía dice que eso puede cambiar a medida que evoluciona la emergencia del coronavirus.
Facebook ofreció más claridad sobre sus planes en una publicación de blog de la compañía el jueves por la noche. Cuando los usuarios denuncien el contenido por violar la política, verán un mensaje que explica que hay menos reseñas y que Facebook se encuentra priorizando el contenido que representa el mayor daño potencial.
"Esto significa que algunos informes no se revisarán tan rápidamente como se solía hacer y que definitivamente no recibiremos algunos informes", según se afirma en la publicación del blog. La reducción de la fuerza laboral también alterará el proceso de apelación para los usuarios que creen que su contenido fue eliminado por error. Las personas aún pueden informar que no están de acuerdo con la decisión de Facebook.
"Supervisaremos esos comentarios para mejorar nuestra precisión, pero es probable que no revisemos el contenido por segunda vez", aclaró la compañía.
Alrededor del 95% de las publicaciones que involucran desnudos de adultos, terrorismo, explotación infantil, suicidio y autolesiones son eliminadas por los algoritmos antes de que los usuarios de Facebook tengan la oportunidad de denunciarlas, según el último informe de cumplimiento de estándares comunitarios de la compañía.
Pero para las categorías del discurso más matizadas, los sistemas de la compañía a menudo son menos efectivos. La inteligencia artificial capta el 16% de las publicaciones que involucran acoso y hostigamiento en Facebook, lo que da como resultado más del 80% de las publicaciones informadas a la empresa. La inteligencia artificial capta alrededor del 80% del discurso de odio.
Esos números han llevado a los funcionarios de la compañía a darse cuenta de que el juicio de los seres humanos todavía es necesario para monitorizar las áreas más sensibles del discurso, como el racismo y la desinformación política.
"Creo que siempre habrá personas" haciendo juicios sobre el contenido, dijo Zuckerberg en una entrevista del Washington Post el año último.
Ya hay signos de posibles problemas. A principios de la semana última, se eliminaron de Facebook artículos legítimosque contenían información precisa sobre el virus. Zuckerberg dijo que esto fue causado por un error en el sistema de detección de spam de la compañía que no estuvo relacionado con su clasificación de la moderación de contenido durante la pandemia. "El sistema está arreglado, esas publicaciones están respaldadas y esperamos no volver a tener ese problema pronto", dijo en la llamada de los medios la semana última.
A medida que Facebook se mueve hacia una respuesta más impulsada por la tecnología para la supervisión del contenido, eso será una prueba importante para la industria, dijo Jeff Kosseff, profesor de ciberseguridad y autor de "The 26 Words That Created the Internet" ("Las 26 palabras que crearon Internet", en español).
"Eso nos dirá mucho sobre el estado de la moderación automatizada", dijo Kosseff. "Realmente no sabemos qué están haciendo exactamente las compañías dedicadas a la tecnología y cuán efectivo es eso", aunque han sido más transparentes.
La profesora de la UCLA Sarah Roberts, autora de "Behind the Screen: Content Moderation in the Shadows of Social Media" ("Detrás de la pantalla: Moderación del contenido en las sombras de las redes sociales", en español), señaló que la mano de Facebook pudo haber sido forzada. En Manila, la capital filipina donde Facebook emplea indirectamente a miles de moderadores del contenido, el gobierno promulgó una cuarentena en toda la ciudad.
Independientemente de la motivación de Facebook, Roberts informó que la experiencia revelará cuánto impacto tienen los críticos humanos sobre nuestro bienestar colectivo y nuestra experiencia en Internet. Incluso puede cambiar la ideología de Silicon Valley que prioriza la resolución de problemas a través de la ingeniería.
"En verdad, es posible que no podamos codificar nuestra salida del coronavirus", afirmó.
Traducción de Ángela Atadía de Borghetti
Otras noticias de Internet
Más leídas de Tecnología
Aprendizaje remoto. Cuatro cursos gratis sobre inteligencia artificial para conseguir una certificación en 10 horas
Cyber Monday 2024. Tres sitios para comparar precios y encontrar las verdaderas ofertas
Según a la IA. Cuáles son los tres signos con "más suerte" en noviembre 2024
Es de Google. Cómo hacer el curso gratis sobre Aprendizaje Automático con certificación en 35 minutos