Facebook bloqueará de forma inmediata de las transmisiones en vivo de propaganda terrorista
Con una medida que busca endurecer las sanciones a los usuarios que infringen las normas de uso de las herramientas de la red social, Facebook anunció que aplicará la política de única advertencia para bloquear las transmisiones de Facebook Live con contenidos de propaganda terrorista, de explotación infantil u otros delitos.
De esta forma, si un usuario infringe las normas de uso, como una declaración de un grupo terrorista u otro tipo de delitos, será bloqueado de forma inmediata para que no pueda usar las transmisiones en vivo por un período de tiempo definido, de unos 30 días a partir de la primera infracción en Facebook Live, un servicio de la red social que está vigente desde 2016.
De forma previa, la penalización aplicada por Facebook se realizaba de forma paulatina, ya que primero eliminaba las publicaciones que infringían las normas y condiciones de uso y limitaba el acceso a la plataforma. Si el usuario reiteraba su actividad, la compañía recién aplicaba un bloqueo por un tiempo determinado, y luego de estas instancias terminaba por quedar excluido de forma completa de la plataforma.
La política de única advertencia en las transmisiones en vivo de Facebook es una medida que busca endurecer la postura de la compañía ante contenidos con fines dañinos o que promueven el odio, en especial tras el reciente ataque terrorista en Nueva Zelanda , donde Facebook Live fue utilizado para transmitir la masacre en una mesquita en Christchurch.
Facebook también anunció el desarrollo de nuevas técnicas de detección de contenido relacionado con el ataque terrorista en Nueva Zelanda. Más allá de la eliminación de la transmisión en vivo, en la red social se republicaron una y otra vez diversas versiones editadas del video del ataque, algo que dificultó la moderación y remoción de dichos contenidos.
Tras los problemas que enfrentó la plataforma con la republicación de los videos del ataque, Facebook anunció una asociación con las universidades de Maryland, Cornell y de California en Berkeley para desarrollar nuevas técnicas de detección de manipulación en imágenes, videos y audios. El trabajo en conjunto también busca en distinguir la intencionalidad de los usuarios en aquellas las publicaciones que tienen imágenes editadas y videos manipulados.
"Este trabajo será fundamental en nuestro esfuerzo ampliado por combatir la manipulación de imágenes, videos y audios, incluyendo los videos deepfakes. También, esperamos nos ayude a combatir de forma más eficaz a los grupos organizados que intentan engañar a nuestros sistemas, como hemos visto después del ataque a Christchurch", dijo Guy Rosen, vicepresidente del área de Integridad de Facebook.
Otras noticias de Facebook
Más leídas de Tecnología
Similares a los Ray-ban de Meta. Samsung tendrá su línea de anteojos inteligentes en 2025
Cuidado. Qué significa quitar la foto de perfil en WhatsApp, según un psicólogo
Auto clásico. Cómo se vería el histórico Dodge GTX modelo 2025, según la IA
Según la IA. Los suplementos naturales que pueden mejorar tu digestión