Instagram prepara un sistema para bloquear fotos inapropiadas
Varios usuarios denuncian acoso por medio de los mensajes directos; ¿Qué hará la red social?
- 3 minutos de lectura'
Instagram está desarrollando una función que permitirá a los usuarios bloquear fotos de desnudos no solicitadas en sus mensajes directos.
La “protección de la desnudez” será una configuración de privacidad opcional, similar a la función de palabras ocultas lanzada el año pasado, que filtra los mensajes que contienen lenguaje abusivo y emojis. Usando el aprendizaje automático.
La compañía tampoco verá ni almacena ninguna de las imágenes. La característica, reportada por primera vez por el medio Verge, aborda persistentes denuncias de abuso en la aplicación de redes sociales, propiedad de Meta Plataforms Inc.
Alrededor del 41 por ciento de los estadounidenses denuncian acoso en línea y el 79 por ciento cree que las empresas de redes sociales están haciendo un trabajo regular o deficiente al abordar esos problemas, según un estudio del 2021 del centro de investigación Pew, que encuestó a más de 10.000 adultos en septiembre de 2020.
Un tercio de las mujeres menores de 35 años experimentaron acoso sexual en lineal, en comparación con el 11 por ciento de los hombres en el mismo rango de edad, según el informe.
La protección de la desnudez en Instagram aún se encuentra en las primeras etapas de desarrollo. ”Estamos trabajando en estrecha colaboración con expertos para garantizar que estas nuevas funciones preserven la privacidad de las personas, al tiempo que les brindan control sobre los mensajes que reciben”, dijo un portavoz de Meta.
Instagram verificará la edad de los adolescentes con un nuevo software
Instagram está explorando nuevas formas para verificar la edad de los adolescentes y que cumplan con las reglas de la plataforma. La aplicación, propiedad de Meta, está probando selfies de video con software de análisis facial como un nuevo método de verificación de edad.
Algunos usuarios de Instagram tratan de eludir la regla que establece que debes ser mayor de 13 años, editando su fecha de nacimiento para que parezcan mayores de 18 años. Pero los adolescentes de EE.UU. que ahora lo intenten tendrán tres formas de verificar la edad: subir una identificación, pedirles a tres usuarios adultos que respondan por ellos o tomarse un videoselfie.
Meta dice que espera que los nuevos métodos aseguren que los adolescentes tengan una “experiencia apropiada para su edad” en Instagram. El gigante tecnológico se enfrentó anteriormente a críticas sobre la seguridad de los adolescentes y los niños en sus plataformas. Varios estados de EE.UU. investigaron a Instagram el año pasado por las experiencias de los niños que comparten fotos en la aplicación, en respuesta a las filtraciones de la denunciante de Facebook Frances Haugen.
Will Gardner, director ejecutivo de Childnet y director del Centro Internet Más Seguro en Reino Unido, dice que la nueva prueba es alentadora: “Existe el potencial para tratar de ayudar a proteger a los niños del contenido que no es para ellos y hacer que su experiencia en internet sea más adecuada”.
Pero 5Rights Foundation, una organización británica que hace campaña para la seguridad de los niños en el entorno digital, afirma que tales esfuerzos están “atrasados”.
Otras noticias de En las redes
Más leídas de Tecnología
Con un precio que llama la atención. Samsung pone en venta sus nuevos celulares plegables en el país
Histórico. Cómo se vería el histórico Torino ZX modelo 2025, según la IA
En el exterior. Cuánto saldrá comprar un iPhone 16 sin impuestos desde diciembre
WhatsApp. Por qué hay que desactivar Meta AI y cómo es el paso a paso