Lavender, el sistema con inteligencia artificial de Israel que decide a quién se bombardea en Gaza
Las Fuerzas Armadas recurren a un sistema automatizado para seleccionar sus objetivos humanos, una práctica inédita hasta ahora
- 10 minutos de lectura'
MADRID.- Israel cruzó una línea más en la automatización de la guerra. Sus Fuerzas Armadas han desarrollado un programa apoyado en inteligencia artificial (IA) para seleccionar las víctimas de sus bombardeos, un proceso que tradicionalmente exige comprobaciones manuales de indicios hasta verificar que un objetivo merece serlo. Bautizado como Lavender (lavanda), este sistema marcó durante las primeras semanas de guerra a 37.000 palestinos, y se usó en al menos 15.000 muertes desde el 7 de octubre hasta el 24 de noviembre en la invasión de la Franja de Gaza, según revela una investigación periodística de dos medios israelíes, +972 Magazine y Local Call, publicada también en The Guardian.
La herramienta generó controversia por la frialdad con la que los mandos militares responsables de dar luz verde o no a las sugerencias del sistema Lavender gestionan la muerte de personas como meras estadísticas. Entra dentro de los parámetros aceptables, por ejemplo, que por cada alto cargo de Hamas o Jihad Islámica muera un centenar de civiles en el bombardeo, que suele afectar a varios edificios. El sistema está diseñado para atacar en el domicilio del objetivo y de noche, lo que aumenta las probabilidades de que este esté en casa, pero también de que mueran con él sus familiares y vecinos.
Nunca antes había trascendido que nadie automatizara una tarea tan sensible como la selección de objetivos militares humanos, tarea en la que un falso positivo puede significar la muerte de inocentes. Las Fuerzas Armadas israelíes negaron en un comunicado oficial tras la publicación del reportaje que se esté dejando a una máquina determinar “si alguien es un terrorista”. El escrito dice que los sistemas de información “son meras herramientas para los analistas en el proceso de identificación de objetivos”, si bien las fuentes citadas aseguran que los oficiales se limitan a validar las recomendaciones de Lavender, sin hacer comprobaciones.
La investigación, que tiene como fuente a varios oficiales del ejército y los servicios de inteligencia israelíes, incluyendo la Unidad 8200, no revela qué parámetros se usan para determinar si un sujeto tiene o no relación con Hamas o Jihad Islámica. Se enumeran algunos, como que el individuo cambie frecuentemente de teléfono (algo que sucede constantemente en un contexto de guerra) o que sea varón (no hay mujeres con rango de oficial).
Sí se sabe que, como todos los sistemas de IA, Lavender no deja de ser un modelo probabilístico. Trabaja con estimaciones y, por tanto, comete fallos. Al menos el 10% de los individuos marcados como objetivo no lo eran, según fuentes oficiales citadas en el reportaje. Ese margen de error, sumado a las muertes colaterales aceptadas por el ejército (hasta 300 civiles en un solo bombardeo el 17 de octubre para acabar con un comandante de Hamas), arroja un saldo de miles de palestinos, la mayoría mujeres y niños, asesinados por indicación del software sin tener vinculación alguna con las milicias.
La automatización de la guerra
El programa Lavender se complementa con otro llamado Where is Daddy? (¿Dónde está papá?, en inglés), usado para rastrear a los individuos ya marcados y llevar a cabo el bombardeo cuando estén en casa, y con The Gospel (El evangelio), dirigido a identificar edificios y estructuras desde las que, según el ejército, operan militantes de Hamas.
Lavender procesa información recogida de los más de 2,3 millones de residentes en la Franja de Gaza, lo que confirma la tupida red de vigilancia digital a la que son sometidos todos sus habitantes. Se elabora una puntuación para cada individuo que va de 1 a 100, de menor a mayor probabilidad estimada de que esté vinculado al brazo armado de Hamas o a la Jihad Islámica; quienes sacan las notas más altas son barridos de la faz de la Tierra junto a sus familiares y vecinos.
Según la investigación de +972 Magazine, los oficiales apenas hacían comprobaciones acerca de los objetivos sugeridos por Lavender aludiendo motivos de “eficiencia”: dedicaban pocos segundos a ver cada caso, presionados por la necesidad de recopilar cada día nuevos objetivos a los que disparar. Llevado a la práctica, suponía validar las indicaciones del algoritmo.
¿Es legal usar este tipo de sistemas? “El ejército de Israel usa la IA para aumentar los procesos de toma de decisiones de los operadores humanos. Ese uso es conforme al derecho internacional humanitario, tal y como lo aplican las Fuerzas Armadas modernas en muchas guerras asimétricas desde el 11 de septiembre de 2001″, señala la jurista Magda Pacholska, investigadora del TMC Asser Institute y especialista en la intersección entre tecnologías disruptivas y derecho militar.
Pacholska recuerda que el Ejército israelí ya había usado anteriormente sistemas de apoyo automatizado a la toma de decisiones como Lavender y Gospel en la Operación Guardián de los Muros de 2021. También lo habían hecho las fuerzas de Estados Unidos, Francia o Países Bajos, entre otros, aunque siempre contra objetivos materiales. “La novedad es que, esta vez, emplea estos sistemas contra objetivos humanos”, resalta la experta.
Arthur Holland Michel, a quien la ONU ha encargado informes sobre el uso de armas autónomas en conflictos armados, añade otro elemento. “Lo que es diferente, y ciertamente sin precedentes, en el caso de Lavender en Gaza es la escala y la velocidad a la que se está utilizando el sistema. El número de personas que se ha identificado en tan solo unos meses es asombroso”, subraya. “Otra diferencia crucial es que el tiempo transcurrido entre la identificación de un objetivo por parte del algoritmo y el ataque contra este parece haber sido a menudo muy corto. Eso indica que no hay demasiada investigación humana en el proceso. Desde un punto de vista jurídico, esto podría ser problemático”, concluye.
De acuerdo con las prácticas y doctrinas de muchos Estados occidentales, incluida la OTAN, recuerda Pacholska, una vez que se determina que una persona “participa directamente en las hostilidades” es un objetivo legal y puede ser atacado también en su domicilio: “Puede resultar chocante para el público, pero así es como se han llevado a cabo los conflictos contemporáneos contra los grupos armados organizados desde el 11 de septiembre de 2001″.
Lo que no es legal es masacrar a civiles. Para Luis Arroyo Zapatero, rector honorario de la Universidad de Castilla-La Mancha y especialista en Derecho Penal Internacional, las muertes impulsadas por esta herramienta deben ser considerados “crímenes de guerra”, y el conjunto de estas acciones y las destrucciones masivas de edificios y personas “son crímenes contra la humanidad”. En derecho internacional, explica el profesor, no se admiten los asesinatos como acción militar, aunque se discute sobre los llamados asesinatos selectivos. “Las muertes producidas como daños colaterales son puros asesinatos. El sistema Lavender es directamente una máquina de asesinar civiles, pues admite muertes colaterales de civiles de entre 10 y 100 personas más allá de objetivo preciso”, asegura.
El laboratorio palestino del armamento israelí
Los palestinos saben bien lo que es estar vigilados. Los servicios de inteligencia israelíes llevan años recolectando todo tipo de datos sobre cada uno de ellos. El rastro digital de sus celulares, desde ubicaciones a interacciones en redes sociales, se procesa y almacena. Las cámaras con sistemas automáticos de reconocimiento facial forman parte de su día a día al menos desde 2019. The Washington Post informó sobre un programa, Blue Wolf, dirigido a registrar los rostros de cada habitante de Cisjordania, incluidos niños y ancianos, y asociarlos a una ficha de “peligrosidad”, de manera que los soldados, al fotografiar por la calle a un sujeto con su móvil, vieran sobre la marcha un código de colores que les indicara si lo tienen que arrestar.
The New York Times informó del uso de un sistema similar en la Franja de Gaza desplegado a finales del año pasado que también busca recolectar y clasificar las caras de los palestinos sin su consentimiento.
Todas estas tecnologías las desarrollan empresas israelíes, que se las venden a sus fuerzas armadas y luego las exportan con la garantía de haber sido probadas en el terreno. “Reconocimiento facial en todas partes, drones, tecnología de espionaje… Este Estado es realmente una incubadora de tecnologías de vigilancia. Si vendes un producto, tienes que mostrar lo efectivo que es en escenarios reales y en tiempo real. Eso es lo que está haciendo Israel”, dice Cody O’Rourke, de la ONG Good Shepherd Collective, desde Beit Sahour, un pueblo palestino al este de Belén. Este estadounidense, que lleva dos décadas como cooperante en Palestina, sabe que su nombre y el de otros colaboradores que han ido a Gaza están metidos en una lista negra. Eso supone registros adicionales y esperas más largas en los controles militares israelíes. “Es una capa más de la aplicación de la tecnología para fragmentar a la población”, explica por videollamada.
Israel se ganó un nombre en el mercado internacional de armamento. Vende tanques, cazas, drones y misiles, pero también sistemas sofisticados como Pegasus, el software espía desarrollado por NSO Group que permite entrar en el teléfono móvil de las víctimas, que en España se usó para intervenir las comunicaciones de los líderes independentistas en pleno procés. “Israel siempre se había considerado líder en ciberseguridad y, desde hace cinco o seis años, también se está especializando en herramientas apoyadas en IA que pueden tener uso militar”, reflexiona Raquel Jorge, analista de política tecnológica del Real Instituto Elcano. Han circulado por internet presentaciones de mandos israelíes en ferias de armamento que presentan el programa Lavender con la jerga de los emprendedores y se refieren al sistema como “el polvo mágico para detectar terroristas”.
Hay quien lee la investigación de +972 Magazine como una gran campaña de marketing de las fuerzas armadas israelíes. “Mientras que algunos han interpretado el reportaje como una acusación moral al uso por parte de Israel de una tecnología novedosa, yo sugeriría que se trata más bien de propaganda que intenta afianzar su papel en la economía política global como desarrollador de armas”, explica a EL PAIS Khadijah Abdurraman, directora de Logic(s) Magazine, una revista especializada en la intersección entre tecnología y sociedad. “Una puede imaginarse fácilmente a las Fuerzas de Apoyo Rápido de Sudán haciendo un pedido de los sistemas Lavender antes de que acabe la semana”, añade.
O’Rourke es de la misma opinión. “El punto no es que matar palestinos está mal, sino que se usó el sistema de forma inadecuada, sin hacer las comprobaciones pertinentes. Parece que se quiera vender que hay una forma correcta de asesinar. Que se publique eso no le debe molestar al ejército, porque si se ha publicado en un medio israelí quiere decir que el gobierno ha dado su visto bueno”, apunta el estadounidense en referencia a la oficina del Censor Militar que veta la información que pudiera dañar la seguridad del Estado.
“Israel lleva décadas deslegitimando el proceso de paz con los palestinos, aunque nunca ha estado interesado en alcanzar la paz. Necesita que el mundo legitime su ocupación y usa la tecnología para mantener esa ocupación como tarjeta de visita”, escribe Antony Loewenstein en su libro El laboratorio palestino (Capitán Swing, 2024), que profundiza en cómo el país hebreo se ha servido de la ocupación que ejerce sobre los territorios palestinos como escaparate de la tecnología militar que lleva décadas vendiendo por todo el mundo.
El uso de Lavender plantea muchas preguntas y pocas respuestas. ¿Qué tipo de algoritmos utiliza el sistema para identificar objetivos potenciales? ¿Qué elementos se tienen en cuenta en ese cómputo? ¿Cómo se verifican las recomendaciones de objetivos del sistema? ¿En qué circunstancias se niegan los analistas a aceptar la recomendación de un sistema? “Si no tenemos respuestas a estas preguntas, será muy difícil encontrar una solución a los graves riesgos que plantea la rápida automatización de la guerra”, concluye Holland.
Manuel Pascual
El País, SL
Otras noticias de Guerra en Medio Oriente
"Cien mil cuerpos". El horror de las fosas comunes en Siria, otro oscuro hallazgo sobre la brutal represión de la era Al-Assad
Vulnerabilidad, incertidumbre y cautela. “Si mostramos las armas para protegernos, nos hacen la guerra”: el temor de los cristianos en Maalula tras la caída de Al-Assad
"Nos sentimos traicionados". Los temores al avance rebelde de la minoría del Islam a la que pertenecía el clan Al-Assad
- 1
Crisis en Canadá: Trudeau reorganiza su gabinete en medio de crecientes presiones para que renuncie
- 2
The Economist nombró al país del año: cuál fue el elegido y qué dijo sobre la Argentina
- 3
Uno de los opositores venezolanos asilados salió de la embajada argentina para entregarse a las autoridades chavistas
- 4
Video | Así fue el atropello masivo en un mercado navideño en Alemania