Take It Down: así es la herramienta para prevenir la difusión de imágenes íntimas en Facebook o Instagram
Meta presentó una herramienta para prevenir la difusión de imágenes íntimas; está pensada para que la usen chicos, chicas, adolescentes y adultos, para frenar la circulación de imágenes íntimas
- 5 minutos de lectura'
Hay una máxima que dice: si no querés que se filtre una imagen, no la publiques. Pero ¿qué ocurre cuando las fotos o videos son robados y/o publicados sin consentimiento?
“El hombre más odiado de internet” es un doloroso ejemplo de ello. El documental de Netflix que relata la historia de las primeras víctimas de violencia digital, cuando no solo no había herramientas para proteger esta violación a la intimidad, sino cuando no era considerado delito. Pasaron ya 13 años desde la historia de Hunter Moore que da origen a la docuserie, pero aún hay mucho camino para recorrer.
En primer lugar, saber que la violencia digital no es pornovenganza: el origen del contenido no es pornografía y su difusión no es a causa de un daño previo. En segundo, hasta que la legislación local y global agilice los procesos, es de vital importancia conocer herramientas disponibles para proteger el derecho personalísimo a la intimidad.
Con ese fin, Meta, la compañía subsidiaria de Facebook e Instagram, acaba de presentar una herramienta para prevenir que se difunda y viralice un contenido en internet. La iniciativa se llama Take it Down (”bájalo” o “quitálo”, en inglés) y permite a cada persona indicar, de manera privada, qué una foto o video podría haberse publicado sin su consentimiento en internet y eliminar el archivo forma automática. La página fue creada en conjunto con Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) de Estados Unidos, pero se ofrece a todo el mundo, siguiendo los pasos de la plataforma StopNCII, que ayuda a los adultos a detener la difusión de sus imágenes íntimas en Internet.
María Cristina Capelo, Líder de Seguridad de Meta para América Latina, explica a LA NACION el largo recorrido de la empresa para lograr una tecnología que analice los millones de metadatos de manera privada y evite la circulación de este contenido en las redes sociales de la empresa: “El 99% de las veces que detectamos cualquier tipo de imagen de explotación sexual infantil, lo hacemos antes de que lleguen a circular en la red. La inteligencia artificial nos permite identificar desnudos en menores y situaciones de abuso. Es un trabajo en constante evolución que venimos haciendo desde hace muchos años”. Capelo explica cómo evolucionó la herramienta para que los archivos que uno desea subir no salgan nunca del dispositivo original. El sitio trabaja de manera conjunta con dos organizaciones: “Si bien la página es la misma, si un mayor de 18 años quiere subir un archivo es dirigido automáticamente a la plataforma, con recursos para víctimas de abusos de imágenes íntimas no consensuadas. Si es menor de 18, el sitio Take it down se encarga del proceso automático”.
Este sistema, además, utiliza tecnología de código abierto desarrollada por Meta que es puesta a disposición de empresas y organizaciones que deseen sumarse a la iniciativa. Por el momento, forman parte de “Take It Down” Facebook, Instagram, OnlyFans y la plataforma Yubo.
Cómo funciona Take it Down
La propuesta requiere muy pocos pasos. En la página, se invita a indicar la edad del denunciante anónimo, y luego se puede proceder a cargar las imágenes o videos en cuestión. Se pueden subir hasta 10 archivos por vez, pero si es necesario, se vuelve a repetir la carga con otra consulta. Una vez finalizado cada proceso, el usuario recibe un número de caso que posteriormente puede ser usado para hacer el seguimiento del mismo.
El sitio también aporta recursos para niños, niñas, adolescentes y adultos que hayan sido víctimas de filtraciones de imágenes, tanto en Estados Unidos como en toda la región.
“Desde Meta trabajamos con varias organizaciones de América Latina, que a su vez trabajan con escuelas. Desafortunadamente, hay muchos chiquitos que aunque no tengan acceso a las redes están experimentando sacarse sus primeras fotos, que no necesariamente tienen que ver con casos de explotación, pero que sí pueden poner en peligro su intimidad”, agrega Capelo, e indica que el próximo paso va a ser trabajar con organizaciones locales que ya dan ayuda a niñas, niños y adolescentes para que los recursos estén más visibles.
En el último trimestre del 2022, Facebook detectó 25,2 millones de contenidos relacionados con peligro infantil y explotación sexual. En el caso de contenido de adultos, la organización StopNCII.org, a través de línea de Ayuda de Revenge Porn (RPH), eliminó más de 200.000 imágenes íntimas individuales no consentidas de Internet.
“Fue un esfuerzo de la industria de los últimos 15 años e invertimos muchos recursos para que esa tecnología funcione lo más rápido posible. Cuando se reciben los CyberTipline, que son los reportes de víctimas de explotación infantil, las denuncias se conectan con las jurisdicciones de los países, incluida la Argentina”, agrega Capelo.
La difusión de imágenes íntimas afecta cada vez a más personas en el mundo de todas las edades. Según Amnistía Internacional, una de cada tres mujeres sufrió lo que se conoce como violencia online, directa o indirecta. Si incluimos a los delitos de pornografía infantil, los números son escalofriantes. La base de datos de la Interpol identifica 7 víctimas de explotación sexual de niños por día y su base de datos contiene 4,3 millones de imágenes y videos de 68 países hasta enero de 2023. Según la ONG Grooming Argentina, 1 de cada 4 chicos recibe solicitudes de desnudez por internet en el país.
En Argentina, el grooming — la acción por la que una persona adulta contacta a una niña, un niño o adolescente a través de una plataforma online para atentar contra su integridad sexual- es considerado delito desde 2013.
La difusión de imágenes íntimas es en argentina considerada un tipo de extorsión por el Código Penal, y hay dos proyectos de ley a la espera de tratarse que contemplan la violencia digital. La “Ley Olimpia” y la Ley Belén, cuyos nombres recuerdan a víctimas de violencia sexual.