Taylor Swift, bloqueada en redes sociales por la difusión de fotos porno con su cara creadas por deepfake
Las búsquedas sobre Taylor Swift están bloqueadas en redes sociales después de la difusión de imágenes pornográficas creadas con herramientas de tipo deepfake que llevan su rostro
- 5 minutos de lectura'
Imágenes pornográficas de Taylor Swift circulan en internet, lo que convierte a la cantante en la víctima más famosa de un flagelo que las plataformas tecnológicas que los grupos antiabuso luchan por solucionar.
Imágenes falsas sexualmente explícitas y abusivas de Swift comenzaron a circular ampliamente esta semana en X (antes Twitter).
Su ferviente base de fans de swifties se movilizó rápidamente, lanzando una contraofensiva en la plataforma con el hashtag #ProtectTaylorSwift para inundarla con imágenes más positivas de la estrella del pop. Algunos dijeron que estaban reportando cuentas que compartían los deepfakes (videos, imágenes o sonidos manipulados mediante inteligencia artificial para parecer auténticos y reales).
El grupo de detección de deepfakes Reality Defender dijo que rastreó una avalancha de material pornográfico no consensuado que representaba a Swift, particularmente en X. Algunas imágenes también llegaron a Facebook, propiedad de Meta, y a otras plataformas de redes sociales.
“Desafortunadamente, se extendieron a millones y millones de usuarios, incluso para cuando algunas de ellas fueron eliminadas”, dijo Mason Allen, jefe de crecimiento de Reality Defender.
Los investigadores encontraron más de una veintena de imágenes generadas por IA. Las más compartidas estaban relacionadas con el fútbol, mostraban a Swift pintada o ensangrentada de una forma que la cosificaba y, en algunos casos, infligía un daño violento a su imagen de deepfake.
Un ejemplo de un video deepfake
Un problema creciente
Los investigadores han dicho que el número de deepfakes explícitos ha crecido en los últimos años, ya que la tecnología utilizada para producir tales imágenes se ha vuelto más accesible y fácil de usar. En 2019, un informe publicado por la empresa de inteligencia artificial DeepTrace Labs mostró que estas imágenes se usaban abrumadoramente contra las mujeres. La mayoría de las víctimas, dijo, eran actrices de Hollywood y cantantes de K-pop.
Brittany Spanos, reportera sénior de Rolling Stone que imparte un curso sobre Swift en la Universidad de Nueva York, dice que los fans de Swift se movilizan rápidamente en apoyo a la artista, especialmente aquellos que se toman muy en serio su fanatismo y en situaciones en las que haya una conducta inapropiada.
“Esto podría ser un gran problema si ella realmente lo lleva a los tribunales”, dijo.
Spanos dice que el problema de la pornografía deepfake se suma a otros que Swift ha enfrentado en el pasado, señalando su demanda de 2017 contra un DJ de una estación de radio que supuestamente la manoseó. Los miembros del jurado otorgaron a Swift 1 dólar en daños y perjuicios, una suma que su abogado, Douglas Baldridge, calificó como “un solo dólar simbólico, cuyo valor es inconmensurable para todas las mujeres en esta situación” en medio del movimiento MeToo. (La demanda de 1 dólar se convirtió en tendencia a partir de entonces, como en la contrademanda de Gwyneth Paltrow de 2023 contra un esquiador).
Un ejemplo de un video deepfake
La respuesta de X ante los deepfakes de Taylor Swift
“Nuestros equipos eliminan activamente todas las imágenes identificadas y toman las medidas apropiadas contra las cuentas responsables de publicarlas”, escribió la compañía en la publicación de X el viernes por la mañana. “Estamos monitoreando de cerca la situación para asegurarnos de que cualquier otra violación se aborde de inmediato y se elimine el contenido”.
Mientras tanto, Meta dijo en un comunicado que condena enérgicamente “el contenido que ha aparecido en diferentes servicios de Internet” y trabaja para eliminarlo.
“Continuamos monitoreando nuestras plataformas en busca de este contenido violatorio y tomaremos las medidas apropiadas según sea necesario”, dijo la compañía.
Un representante de Swift no respondió a una solicitud de comentarios el viernes.
Allen dijo que los investigadores están 90% seguros de que las imágenes fueron creadas un tipo de modelo de inteligencia artificial generativa que puede producir imágenes nuevas y fotorrealistas a partir de indicaciones escritas. Las más conocidas son Stable Diffusion, Midjourney y DALL-E de OpenAI. El grupo de Allen no trató de determinar la procedencia.
Microsoft, que ofrece un generador de imágenes basado en parte en DALL-E, dijo el viernes que estaba en proceso de investigar si su herramienta fue utilizada inapropiadamente. Al igual que otros servicios comerciales de IA, dijo que no permite “contenido íntimo para adultos o no consensuado, y cualquier intento repetido de producir contenido que vaya en contra de nuestras políticas puede resultar en la pérdida de acceso al servicio”.
Cuando se le preguntó sobre los deepfakes de Swift en “NBC Nightly News”, el director ejecutivo de Microsoft, Satya Nadella, dijo al presentador Lester Holt en una entrevista que se transmitirá el martes que aún queda mucho por hacer para establecer salvaguardas para la IA y que “nos corresponde movernos rápido en esto”.
“Esto es absolutamente alarmante y terrible, y, sí, tenemos que actuar”, dijo Nadella.
Midjourney, OpenAI y el fabricante de Stable Diffusion, Stability AI, no respondieron a las solicitudes de comentarios.
Legisladores federales que han presentado proyectos de ley para poner más restricciones o criminalizar la pornografía deepfake indicaron que el incidente muestra por qué Estados Unidos necesita implementar mejores protecciones.
“Durante años, las mujeres han sido víctimas de deepfakes no consensuados, lo que le sucedió a Taylor Swift es más común de lo que la mayoría de la gente cree”, dijo la representante estadounidense Yvette D. Clarke, una demócrata de Nueva York que presentó una legislación que requeriría que los creadores pongan una marca digital de contenido deepfake.
“La IA generativa está ayudando a crear mejores deepfakes a una fracción del costo”, dijo Clarke.
El representante federal Joe Morelle, otro demócrata de Nueva York que impulsa un proyecto de ley que penalizaría el intercambio de pornografía deepfake en línea, dijo que lo que le sucedió a Swift fue inquietante y se ha vuelto cada vez más común en Internet.
“Las imágenes pueden ser falsas, pero sus impactos son muy reales”, dijo Morelle en un comunicado. “Los deepfakes les están ocurriendo todos los días a mujeres en nuestro mundo cada vez más digital, y es hora de ponerles fin”.
Associated Press