La Internet Watch Foundation dice que aumentaron las denuncias de circulación de material pornográfico creado con inteligencia artificial, pero “entrenado” con material original
- 3 minutos de lectura'
El número de imágenes y videos de agresiones sexuales a niños generadas por inteligencia artificial (IA) aumenta de forma “escalofriante” en internet, advirtió el viernes una organización británica encargada de detectar y eliminar estos contenidos. Muchas de estas fotografías o videos que muestran a menores “siendo atacados y maltratados son tan realistas que es casi imposible distinguirlos de imágenes de niños de verdad”, subraya en un comunicado la Fundación de Vigilancia de Internet (Internet Watch Foundation, IWF), una de las principales asociaciones del sector en Europa.
La IWF, que había recibido 70 denuncias entre abril de 2023 y marzo de 2024, ya contabilizó 74 en el espacio de seis meses, entre abril y finales de septiembre de este año. Casi todas estas imágenes se encontraban en sitios abiertos, de fácil acceso para el gran público, principalmente de Rusia (36%), Estados Unidos (22%) y Japón (11%). Más de las tres cuartas partes de esas denuncias fueron hechas directamente a la asociación por internautas, tras haber visto las imágenes en “foros o galerías de fotos o videos de IA”.
Según un analista de la organización, que prefirió guardar el anonimato por motivos de seguridad, el aumento de estas denuncias es “escalofriante y da la impresión de que hemos llegado a un punto crítico, con el riesgo de que organizaciones como la nuestra y la policía se vean abrumadas por cientos de nuevas imágenes, sin saber si un niño de verdad necesita ayuda en alguna parte”.
”Para alcanzar el nivel de sofisticación observado, el software utilizado tuvo que aprender de imágenes y videos reales de agresiones sexuales a menores compartidos en internet”, explica Derek Ray-Hill, director general interino de la IWF, citado en el comunicado. Para hacer frente a esto, Ray-Hill insta a los parlamentarios británicos a adaptar las leyes existentes “a la era digital” y a sus herramientas en constante avance.
En 2023 la BBC ya había alertado de este tipo de prácticas, y había rastreado el proceso de creación y difusión del material.
Las imágenes de abuso son compartidas a través de un proceso de tres etapas:
- Pedófilos generan las imágenes con software de IA, “entrenado” con imágenes y videos reales
- Promueven las fotos en plataformas como Pixiv, un sitio japonés de intercambio de imágenes
- Estas cuentas tiene vínculos que dirigen a los clientes a imágenes más explícitas, para las que pueden pagar para mirar en cuentas en sitios como Patreon.
Según la periodista Octavia Sheepshanks, que investigó el tema, los usuarios parecían estar produciendo imágenes de abuso sexual infantil a una escala industrial. “El volumen es inmenso, hasta el punto en que [los creadores] dicen que ‘apuntamos a producir al menos 1000 imágenes al mes’”, informó.
Con información de AFP
LA NACIONOtras noticias de Inteligencia artificial
Más leídas de Tecnología
Similares a los Ray-ban de Meta. Samsung tendrá su línea de anteojos inteligentes en 2025
Clave. Los trucos de WhatsApp más simples y prácticos que son fáciles de aplicar
Auto clásico. Cómo se vería el histórico Dodge GTX modelo 2025, según la IA
Cuidado. Qué significa quitar la foto de perfil en WhatsApp, según un psicólogo