Entre las imágenes publicadas de los bombardeos en Gaza, circularon fotos generadas con inteligencia artificial en las redes sociales
- 6 minutos de lectura'
Entre las imágenes de casas bombardeadas y calles devastadas en Gaza, algunas se destacaban por el horror absoluto que mostraban: bebés ensangrentados y abandonados. Estas imágenes son ejemplos de deepfakes, es decir, audios, imágenes o videos realistas manipulados o generados digitalmente creadas con inteligencia artificial. Si observa atentamente, hay pistas: dedos que se curvan de manera extraña u ojos que brillan con una luz antinatural, todos ellos signos reveladores de engaño digital.
No obstante, la indignación que se buscaba provocar con las imágenes es totalmente real. Las imágenes de la guerra entre Israel y Hamas han ilustrado vívida y dolorosamente el potencial de la inteligencia artificial (IA) como herramienta de propaganda, utilizada para crear imágenes realistas de matanzas. Desde que comenzó la guerra el pasado 7 de octubre, imágenes alteradas digitalmente y difundidas en las redes sociales se han utilizado para hacer afirmaciones falsas sobre la responsabilidad por las víctimas o para engañar a la gente sobre atrocidades que nunca ocurrieron.
Si bien la mayoría de las afirmaciones falsas que circulan en línea sobre la guerra no requirieron IA para su creación y provienen de fuentes más convencionales, los avances tecnológicos se producen con una frecuencia cada vez mayor y con poca supervisión. Esto ha hecho que el potencial de la IA para convertirse en otra forma de arma sea claramente evidente, y ha ofrecido un vistazo de lo que vendrá durante futuros conflictos, elecciones y otros eventos importantes.
“Esto será peor, mucho peor, antes de que mejore”, dijo Jean-Claude Goldenstein, director general de CREOpoint, una empresa de tecnología con sedes en San Francisco y París que utiliza inteligencia artificial para evaluar la validez de las afirmaciones en línea. La compañía ha creado una base de datos de los deepfakes más virales que han surgido en Gaza. “Con IA generativa será una escalada nunca vista”, agregó.
En algunos casos, fotografías de conflictos o desastres distintos han sido readaptadas y se han hecho pasar por nuevas. En otros, se han utilizado programas de IA generativa para crear imágenes desde cero, como la de un bebé llorando en medio de los escombros por un bombardeo que se volvió viral en los primeros días del conflicto. Aya Isleem, periodista palestina, difundió la foto en la red social X.
Gaza pic.twitter.com/3lzkIzyG8P
— Aya Isleem 🇵🇸 #Gaza (@AyaIsleemEn) October 16, 2023
Otros ejemplos de imágenes generadas por IA incluyen videos que muestran supuestos ataques con misiles israelíes, tanques que avanzan por vecindarios en ruinas o familias que buscan sobrevivientes entre la desolación.
En muchos casos, las imágenes falsas parecen diseñadas para provocar una fuerte reacción emocional al incluir cuerpos de bebés, niños o familias. En los primeros días de la guerra, los partidarios tanto de Israel como de Hamás afirmaron que el otro lado había victimizado a niños y bebés. Deepfakes de bebés llorando ofrecieron una “evidencia” fotográfica que rápidamente se presentó como prueba.
“Los propagandistas que crean este tipo de imágenes son hábiles para provocar las ansiedades y los impulsos más profundos de las personas”, dijo Imran Ahmed, director general del Centro para Contrarrestar el Odio Digital, una organización sin fines de lucro que ha rastreado la desinformación de la guerra. “Ya sea el deepfake de un bebé o una imagen real de un bebé de otro conflicto, el impacto emocional en el espectador es el mismo”, explicó.
Cuanto más aborrecible sea la imagen, más probabilidades habrá de que un usuario la recuerde y la comparta, propagando aún más la desinformación sin darse cuenta.
“Ahora mismo se le dice a la gente: mira esta foto de un bebé”, dijo Ahmed. “La desinformación está diseñada para hacer que tú participes en ella”. Contenido igualmente engañoso generado por IA comenzó a difundirse después de que Rusia invadió Ucrania en 2022. Un video alterado parecía mostrar al presidente ucraniano Volodímir Zelensky ordenando a los ucranianos que se rindieran. Tales afirmaciones han seguido circulando incluso la semana pasada, lo que demuestra cuán persistente puede ser la información errónea y falsa, aun cuando ha sido desacreditada fácilmente.
Cada nuevo conflicto o temporada electoral ofrece nuevas oportunidades para que los promotores de desinformación demuestren los últimos avances de la IA. Esto hace que muchos expertos en inteligencia artificial y politólogos adviertan sobre los riesgos el próximo año, cuando varios países celebren elecciones importantes, como Estados Unidos, India, Pakistán, Ucrania, Taiwán, Indonesia y México.
En todo el mundo, varias startups de tecnología trabajan en nuevos programas que pueden detectar deepfakes, colocar marcas de agua en imágenes para demostrar su origen o examinar texto para verificar cualquier afirmación engañosa que pueda haber sido insertada por IA.
“La próxima ola de IA será: ¿cómo puedes verificar el contenido que existe? ¿Cómo puedes detectar información errónea o falsa? ¿Cómo puedes analizar el texto para determinar si es confiable?”, dijo Maria Amelie, cofundadora de Factiverse, una empresa noruega que ha creado un programa de IA que puede examinar contenido en busca de imprecisiones o sesgos introducidos por otros programas.
Éstos serían de interés inmediato para educadores, periodistas, analistas financieros y otras personas interesadas en erradicar las falsedades, el plagio o el fraude. Programas similares están siendo diseñados para detectar fotografías o videos manipulados.
Si bien esta tecnología es prometedora, quienes utilizan la IA para mentir suelen ir un paso adelante, según David Doermann, un científico informático que dirigió un esfuerzo en la Defense Advanced Research Projects Agency (Agencia de Proyectos de Investigación Avanzada de Defensa) para responder a las amenazas a la seguridad nacional que plantean las imágenes manipuladas por IA.
Doermann dijo que responder eficazmente a los desafíos políticos y sociales que plantea la desinformación generada con IA requerirá tanto mejores tecnologías como mejores regulaciones, estándares voluntarios de la industria y grandes inversiones en programas de alfabetización digital para ayudar a los usuarios de Internet a encontrar maneras de distinguir la verdad de la fantasía.
“Cada vez que lanzamos una herramienta que detecta esto, nuestros adversarios pueden usar IA para ocultar ese rastro de evidencia”, dijo Doermann. “Detectar y tratar de eliminar estas cosas ya no es la solución. Necesitamos tener una solución mucho mayor”, concluyó.
Con información de AP.
Otras noticias de Guerra en Medio Oriente
Guerra en Medio Oriente. Estados Unidos atacó objetivos de los rebeldes hutíes en Yemen
"Cien mil cuerpos". El horror de las fosas comunes en Siria, otro oscuro hallazgo sobre la brutal represión de la era Al-Assad
Vulnerabilidad, incertidumbre y cautela. “Si mostramos las armas para protegernos, nos hacen la guerra”: el temor de los cristianos en Maalula tras la caída de Al-Assad
- 1
El chavismo afirma que el opositor que dejó la embajada argentina colabora activamente con la Justicia
- 2
Uno de los opositores venezolanos asilados salió de la embajada argentina para entregarse a las autoridades chavistas
- 3
The Economist nombró al país del año: cuál fue el elegido y qué dijo sobre la Argentina
- 4
Un ómnibus chocó con un camión y se prendió fuego: 32 muertos