La Taylor que no es Swift
Nada es lo que parece. La frase, atribuida a autor anónimo, se aplica a todos los órdenes de la vida. En distintas ocasiones juzgamos o consideramos las cosas o a las personas por lo que vemos o percibimos, pero nos equivocamos. Dependemos de las apariencias para hacer juicios de valor cuando se esconde algo distinto detrás de lo que “aparece”.
A esta característica, propia de los seres humanos, se sumaron dos nuevos ingredientes, con impacto cultural, de la mano de dos tecnologías de inteligencia artificial: la deepfake y la supernovedosa Sora. La tecnología deepfake permite editar videos (voz incluida) o imágenes falsas de personas que parecen reales pero no lo son usando imágenes que suelen ser tomadas de las redes sociales de las víctimas.
La confusión sobre “lo que parece ser y no es” se acrecienta aún más con la reciente presentación de Sora, novedosa aplicación creada por OpenAI (compañía creadora de ChatGPT) que genera videos hiperrealistas a partir de texto escrito. Sora permite la creación inmediata de un video a partir de un texto; por ejemplo: el lector, usando la aplicación, podrá escribir: “una mujer de cabello rubio, vestida de negro, camina por la calle Corrientes de la mano de un hombre de mediana edad y deciden ingresar en el Teatro Gran Rex “. En segundos se generará un video que corporizará lo escrito por el lector, a partir de sus instrucciones.
Se trata de la generación de video-contenido a partir de frases, lo que garantiza aún más que no podamos distinguir entre una imagen real de una que no lo es. En breve, nuestros sentidos nos dirán que estamos viendo o escuchando a una persona cuando en realidad no se trata de esa persona, sino de una construcción armada, a saber por quién, con datos personales de esa persona o mediante algoritmos de construcción virtual, incluso a través de texto, tal como lo ilustra el capítulo “Joan is Awful”, de la sexta temporada de la serie inglesa Black Mirror, que suele adelantarse, cual profeta, a los nuevos “acontecimientos” tecnológicos.
En esta paradoja se vio envuelta, recientemente, la megaestrella de la canción Taylor Swift cuando supuestas imágenes de la cantante, desnuda, circularon por distintos perfiles de X con efecto dominó y rebote en otros sitios web. Las imágenes, sexualmente explícitas (sex-nuds), parecían de Taylor pero no lo eran, sino que habían sido creadas mediante el uso de la tecnología deepfake. En forma inmediata, la ganadora de un decimotercer Grammy por su álbum Midnights, anunció que sus abogados analizaban la promoción de acciones legales contra X, plataforma digital que había hospedado las imágenes adulteradas en sus servidores y había sido usada como vehículo para la distribución de esas imágenes falsas.
Por ejemplo, para evaluar el daño generado a Taylor, uno de los posteos (publicaciones) de la imágenes adulteradas registró más de 35 millones de visualizaciones, 24.000 reenvíos y cientos de miles de “me gusta”, hasta que la compañía de Elon Musk suspendió la cuenta del usuario que distribuía las imágenes falsas. La misma tecnología también generó daños en niños y adolescentes en reiterados casos. A fines de 2023, distintos jóvenes de cuatro colegios de la localidad de Almendralejo (España) fueron víctimas de esa tecnología, que usó, como alimento, las imágenes subidas a Instagram para fabricar nudes eróticos falsos distribuidos en distintos sitios web y mediante WhatsApp, con reenvío incluido. El gran problema se plantea cuando estos nudes llegan a sitios de trata de adolescentes, en la deep web.
Ante los desafíos que plantean estas tecnologías, la Comisión Europea impulsa una modificación legislativa, con efecto en territorio europeo, por la cual las imágenes, videos y diverso material pornográfico de menores generados con inteligencia artificial (imágenes falsas hiperrealistas) serán considerados material de abuso sexual infantil. Aunque, lógicamente, no se cuenta con una regulación, a nivel mundial, que establezca reglas de juego para ninguna de las referidas manifestaciones de inteligencia artificial, máxime para la glamorosa Sora. En el nivel local, la acefalía legislativa es total.
La falta de certeza en lo que perciben nuestros sentidos es uno de los desafíos que vamos a experimentar en los próximos años: definir, a ciencia cierta, si es verdadero (o no) aquello vemos o tocamos. Las situaciones descriptas requieren un adecuado marco de concientización en los niveles familiar y educativo, mediante su tratamiento en el aula, junto con aquellas problemáticas que suponen el uso responsable de redes sociales y herramientas informáticas en general.
Nadie desconoce los beneficios de la inteligencia artificial aplicada y los efectos positivos que promete para la sociedad, pero no debemos desconocer que esa tecnología nos presente terrenos pantanosos. Como refiere la genial Swift en su canción “Treacherous”: “…This path is reckless, This slope is treacherous. I, I, I like it” (este camino es arriesgado, esta pendiente es traicionera... pero me gusta).
Abogado y consultor en derecho digital, privacidad y datos personales. Director del Programa de Derecho al Olvido y Cleaning Digital de la Universidad Austral. Profesor de la Facultad de Derecho de la Universidad de Buenos Aires