San Martín: modificaba fotos de sus compañeras con Inteligencia Artificial para mostrarlas desnudas
El acusado, de 15 años, sacaba las imágenes de las redes sociales; interviene la Justicia de Menores, que ya allanó el domicilio del joven y espera los resultados de las pericias al celular y computadora del sospechoso
- 4 minutos de lectura'
La Justicia investiga a un adolescente de 15 años acusado de vender fotografías de sus compañeras de escuela que, además, habían sido modificadas con Inteligencia Artificial (IA) para que las jóvenes aparecieran desnudas. El hecho ocurrió en el municipio bonaerense de San Martín e involucra a estudiantes del Colegio Agustiniano San Andrés.
Si bien el caso se hizo público en las últimas horas, la pesquisa se desarrolla desde agosto pasado, cuando un grupo de padres y madres de alumnos de ese colegio religioso hizo la denuncia tras descubrir el accionar del joven. Fue un compañero de las víctimas el que se hizo pasar por comprador, y consiguió el CBU y la foto del estudiante que realizaba las ventas. De esta forma, se pudo identificar al responsable de la distribución del material sexual.
Las víctimas tienen entre 13 y 17 años, y la causa por producción y comercialización de representaciones de menores de 18 años dedicados a actividades sexuales quedó a cargo de la fiscal de Responsabilidad Penal Juvenil Alejandra Novoa.
Según pudo saber LA NACION, el 24 de agosto, a pedido de la funcionaria judicial, se realizó un allanamiento en el domicilio del acusado. Si bien es inimputable por su edad, la Justicia intenta determinar la responsabilidad de sus padres y de los adultos que consumían los contenidos que él comercializaba. Durante el procedimiento, efectivos de la comisaría 1a. de San Martín secuestraron el celular del adolescente, computadoras de escritorio, notebooks y un disco de almacenamiento externo para que sean peritados por los especialistas en los próximos días.
De acuerdo al avance de la investigación, el acusado llevaba adelante un negocio ilegal al comercializar estas imágenes falsas. Se habla de que vendía packs de fotos de sus compañeras a 25 mil pesos. Entre sus clientes había jóvenes y adultos. La metodología que usaba para obtener las fotografías de sus compañeras era a través del robo de las mismas de las redes sociales. Luego, usaba una herramienta que funciona con IA para “desnudarlas”. Las caras de las adolescentes eran reales, pero el cuerpo no.
Al parecer, el material era compartido a través de Discord, una plataforma virtual en la que los usuarios tienen la capacidad de comunicarse. Uno de los grupos creados por el acusado tenía el nombre de “Colegialas” y llegó a tener hasta 8000 suscriptores.
Florencia, madre de una de las víctimas, contó al canal de noticias TN que son al menos 22 las chicas que sufrieron este hecho contra su integridad. “Cuando entré al grupo, había imágenes de muchas adolescentes, y los consumidores son mayores y menores”, aseguró. “Mi hija está avergonzada, no quiere volver al colegio”, se lamentó la mujer y agregó: “Es muy grave, no podemos permitir que esto siga pasando”.
En este contexto padres y madres denuncian que la institución escolar no tomó medidas concretas para sancionar al estudiante. Según Florencia, el colegio argumentó que no pueden intervenir porque el hecho ocurre en un ámbito “privado”. Mientras tanto, el alumno sigue asistiendo a clases, bajo la custodia de un preceptor, ya que otros estudiantes habrían querido agredirlo tras conocerse lo ocurrido.
“El chico sigue viniendo. Estuvo un tiempito sin venir y ahora sí lo hace; creo que en algunos horarios diferentes, pero sí, sigue viniendo”, contó Pablo, padre de otra de las víctimas, en diálogo con radio Mitre, y confirmó que las adolescentes, como su hija de 15 años, están siendo asistidas con psicólogos. “Es amiga del chico, lo conocí”, contó el hombre e indicó la dirección del colegio citó a los tutores de las jóvenes que están involucradas. “Nos ofrecieron apoyo psicológico para las chicas y se habló un poco del tema de cómo prevenir esto. Más que eso no”, agregó.
LA NACION se comunicó con la institución para hablar con las autoridades, pero en el transcurso de esta mañana se encontraban reunidas para evaluar la situación.
Un antecedente similar
En mayo de este año, se desató un escándalo similar en un colegio católico de la ciudad de La Plata luego de que un grupo de padres denunciara que un alumno de 13 años había alterado fotos de sus compañeras de escuela para que se vieran desnudas y así viralizarlas. Las víctimas tenían entre 13 y 15 años. En ese momento, la institución en la que tuvo lugar el hecho, San Cayetano, emitió un comunicado para informar que ya estaba abordando el tema.
Los padres de las menores contaron que un chico de segundo año del secundario “se encargó de robar fotos a 13 alumnas del colegio de su Instagram personal y modificarlas para que se vean desnudas y viralizarlas”, según publicó el medio platense El Día. Además, sostuvieron que las fotos ya fueron viralizadas “de tal manera que llegaron a varios colegios de la ciudad, a lugares aledaños y en estados de WhatsApp”.
Otras noticias de Inteligencia artificial
Más leídas de Seguridad
Dramático operativo. Una mujer se tiró a nadar en el río Limay y tuvo que ser rescatada por los guardavidas
Tragedia familiar. Un padre y su hija murieron tras caer a un arroyo en medio de una pelea
Drama en Mendoza. Murió un hombre que fue baleado por su madre anciana porque “no podía cuidarlo más”
40 segundos de horror. El violento ataque a cuchillazos de un hombre a una mujer en una pizzería de Núñez