De la ciencia ficción a la realidad: los “robots asesinos” redefinen el debate militar
Grupos de activistas intensifican la batalla contra el uso y la proliferación de las armas sin control humano significativo; cómo es la campaña contra esta rama de la inteligencia artificial
- 8 minutos de lectura'
“Hasta la vista, baby”. La frase de Arnold Schwarzenegger pasó a la historia del cine, y de la cultura popular, desde el momento mismo en que su personaje icónico, Terminator, abrió fuego contra su robótico villano en la segunda entrega de la saga de ciencia ficción de James Cameron, en 1991, una acción eminentemente defensiva que en 2021 los activistas ven más necesaria que nunca.
De unos años a esta parte, son muchas las organizaciones, gobiernos y personalidades que hacen sonar las alarmas en el mundo contra los llamados “robots asesinos” –las armas de inteligencia artificial con autonomía en su toma de decisiones- y quieren, ellos también, darles el tiro de gracia antes de que -según denuncian- tomen el control de la situación.
A la cabeza de esta iniciativa está la campaña “Paren a los robots asesinos” (”Stop Killer Robots”), que no es una película de clase B, como podría pensarse, sino una red activa desde 2012 que incluye a unas 180 organizaciones de 67 países. La campaña aboga por contener o prohibir el uso de armamentos que puedan manejarse a su libre albedrío en la selección y destrucción de objetivos que consideren deseables.
Ya no se trata solo de armas manejadas a distancia, como los drones que se pilotean desde una base aérea a miles de kilómetros del objetivo, sino de la tendencia hacia la progresiva autonomía de armamentos con capacidad de decidir y ejecutar, llegado el caso, un frío y calculado ataque.
Pueden ser drones, submarinos o vehículos blindados, lo mismo da. Lo que tienen en común es la independencia de criterio a la hora de realizar su trabajo. Este último año los temores se agravaron, luego de conocerse que un dron se movió por su cuenta en un operativo militar contra combatientes rebeldes, en Libia. El dato acentuó la necesidad de luchar por todos los medios (pacíficos) para dejar a esos drones bien guardados en sus hangares, y a los demás artefactos letales sin posibilidades de disparar.
“El tema de las armas autónomas es de increíble actualidad porque involucra tecnología, inteligencia artificial aplicada a sistemas de armas. Que un arma sea completamente autónoma, que el humano pierda completo control sobre ella plantea varios problemas jurídicos y humanitarios, pero sobre todo éticos: ¿vamos a dejarle a un algoritmo que decida sobre la vida y la muerte? Definitivamente no”, dijo a LA NACION Pía Devoto, coordinadora de la Red de Seguridad Humana en América Latina y el Caribe (Sehlac).
La campaña corre una carrera difícil de ganar, pero nunca imposible, contra esta creciente autonomía de las armas que deshumaniza todavía más el de por sí inhumano oficio de la guerra, de larga y prolífica tradición.
Según Human Rigths Watch (HRW), cofundadora de la campaña internacional, casi 100 países ya se expresaron públicamente sobre los robots asesinos. Lo hicieron principalmente en el marco de la Convención sobre las Armas Convencionales (CAC). Y existe, al parecer, la voluntad mayoritaria de regular este sector en ascenso y de prohibir las armas enteramente autónomas.
“Sin embargo, un pequeño número de países militarmente avanzados –sobre todo Israel, Rusia y Estados Unidos– consideran prematura cualquier medida para crear una nueva ley internacional. Están invirtiendo mucho en aplicaciones militares de inteligencia artificial y desarrollando sistemas de armas autónomas de aire, tierra y mar”, señaló la ONG en un informe.
Los activistas insisten en la urgencia de una regulación que permita poner coto al accionar de estos robocops de la vida real en su deambular por los campos de batalla. “El tema se viene discutiendo en el ámbito de Naciones Unidas hace muchos años, hubo acuerdos importantes, pero nada en concreto. Este año, el 2021, es decisivo, ya que se va a definir el futuro del tema. Hay países que no quieren que ningún tipo de regulación o negociación”, dijo Devoto, en consonancia con el alerta de HRW.
El caso de Libia fue una línea divisoria en la inteligencia artificial de las armas, y subrayó el imperativo de acelerar la acción conjunta internacional. Según un estudio difundido por la ONU en junio pasado, durante un combate con las tropas del ejército registrado en marzo de 2020, un grupo de rebeldes fue perseguido en su retirada por un dron Kargu-2, una máquina autónoma de fabricación turca.
El dron no se detuvo a pensar, reconsiderar, desistir y esas cosas que suelen hacer los humanos. Porque se trata justamente de eso, de identificar un blanco y despedirlo de este mundo con precisión quirúrgica y sin sensaciones o sentimientos irrelevantes. Los pocos datos difundidos por la ONU bastaron para marcar un hito y alarmar aún más a los activistas, por ser la primera vez que se registraba el uso de las armas autónomas sobre el terreno, en una situación de combate real.
“Los convoyes logísticos y las HAF (las fuerzas rebeldes) en retirada fueron posteriormente perseguidos y atacados de forma remota por los vehículos aéreos de combate no tripulados o los sistemas de armas autónomos letales como el STM Kargu-2 y otras municiones merodeadoras. Los sistemas de armas autónomas letales fueron programados para atacar objetivos sin requerir conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de ‘disparar, olvidar y encontrar’”, señaló en su informe la ONU.
Quienes defienden el uso de estos sistemas de altísima tecnología sostienen que los algoritmos cometerán, al fin de cuentas, muchos menos errores que los humanos, con lo que se reducirá el número de potenciales víctimas. Y señalan, además, que los ataques autónomos son mucho más rápidos y precisos que los conducidos por los humanos, lo que también redundará en una reducción del número de caídos. Todo suena tan bien que hasta se lo presenta casi como un beneficio para la humanidad.
Del otro lado argumentan, en cambio, que el error de una máquina puede ser incluso de mucha mayor escala que el error humano, multiplicando los potenciales daños. Y sostienen que estos desarrollos pueden derivar en una proliferación de armamentos de inteligencia artificial que dotaría, no solo a cantidad de países, sino a grupos criminales como las bandas terroristas, de una gran capacidad destructiva.
“El mayor peligro es la carrera armamentista que estamos a punto de iniciar. Los únicos límites de esta carrera armamentista son los límites de la propia inteligencia artificial. Si mirás solo a los proyectos que la Agencia de Proyectos de Investigación Avanzados de Defensa del Pentágono [Darpa, según sus siglas en inglés] está reconociendo públicamente, eso es suficiente para darte una idea de cuán radicalmente esto podría cambiar la naturaleza misma de la guerra”, dijo a LA NACION James Dawes, profesor del Macalester College de Minnesota, que escribió extensamente sobre el tema.
Mientras avanza la inteligencia artificial y retrocede la inteligencia humana, quienes se animan a actuar contra los robots asesinos no bajan los brazos en su intento de concientizar a pueblos y gobiernos, así como controlar los daños. Se trata de promover medidas que permitan reducir todo lo posible esta situación para que no quede, en todo el sentido de la expresión, fuera de control.
Como las convenciones internacionales contra la tortura, los ataques a la población civil, las minas personales y las armas químicas, la meta es también poner las riendas a estos robots antes de que corran desbocados a seleccionar sus enemigos y los deshagan en el acto. El programa de mínima es lograr la prohibición de las armas con sensores que rastrean objetivos humanos.
“Tenemos una oportunidad muy real de prohibir estas armas. Basta con mirar la prohibición internacional de las armas láser cegadoras que entró en vigor en la década de 1990. Se puede hacer. Con las armas nucleares, intentamos volver a poner la pasta de dientes en el tubo. Por el contrario, las armas autónomas están todavía en pañales. No hemos cruzado el punto sin retorno”, dijo Dawes.
O también, como escribió el doctor James Johnson, profesor de Estudios Estratégicos de la Universidad de Aberdeen, Escocia, “el éxito de estos esfuerzos requerirá que todas las partes interesadas estén convencidas de la necesidad y los posibles beneficios mutuos” de establecer un marco institucional al despliegue de las armas inteligentes.
Desde América Latina, una región que parece demasiado lejos de estas guerras futuristas que involucran tecnología de ciencia ficción, se puede aportar mucho al esfuerzo de desarme, confía Devoto. Y puede hacerlo alzando la voz en los foros que tratan el asunto, como en la determinación de que estas armas no pasen a integrar los arsenales militares de la región.
“América Latina tiene una fuerte tradición en materia de desarme humanitario y control de armas y es muy activa en estos procesos”, dijo Devoto. “Desde la Red Sehlac nos sumamos al esfuerzo global de la campaña ‘Stop Killer Robots’ desde la cual hacemos un llamado a nuestros gobiernos para que actúen ya y prohíban ciertas armas autónomas, aquellas que tengan como objetivos seres humanos”, concluyó.
Otras noticias de Armas, municiones y explosivos
- 1
El chavismo afirma que el opositor que dejó la embajada argentina colabora activamente con la Justicia
- 2
The Economist nombró al país del año: cuál fue el elegido y qué dijo sobre la Argentina
- 3
Un ómnibus chocó con un camión y se prendió fuego: 32 muertos
- 4
Cómo el caso Pelicot relanzó debates jurídicos y sociales y qué podría cambiar tras la sentencia en Francia