¿Quién controlará que los robots soldados no cambien de bando?
Máquinas de guerra que eligen los objetivos y que matan por decisión propia. ¿Es esto un avance o más bien debería ser prohibido? Una serie de expertos debatirá al respecto desde este lunes y hasta el día 31 de agosto en Ginebra.
La tecnología se denomina Sistemas de Armas Autónomos Letales (LAWS, por sus siglas en inglés) o coloquialmente "robots asesinos", dispositivos que incluyen a robots que disparan, a los drones de ataque o submarinos no tripulados. Durante los combates no los dirigen personas, sino que deciden de manera autónoma los objetivos que consideran legítimos y disparan.
"No hay que dramatizar el asunto", decía hace unos meses el embajador indio Amandeep Gill, quien encabeza el encuentro. "Los robots no controlarán el mundo". Pero los críticos están alarmados.
"Las armas no pueden distinguir entre amigos y enemigos y deben ser analizadas desde el punto de vista del derecho internacional", afirma Thomas Küchenmeister, de la organización alemana Facing Finance, que forma parte de la campaña internacional contra este tipo de armas (Campaign to Stop Killer Robots). La decisión de acabar con una vida humana jamás debería estar en manos de una máquina, argumenta.
Las armas autónomas han sido desarrolladas gracias al veloz avance de la inteligencia artificial. Las computadoras aprenden en base a la información que van recibiendo y deciden qué es un objetivo, cómo se ve, cómo se mueve y cuándo debe ser atacado o detonado sin que una persona participe en la decisión. Es una diferencia clave, por ejemplo, respecto de los misiles "Patriot", que disparan de manera automática, pero que deben ser programados con anterioridad con precisión por seres humanos.
Entre automático y autónomo
"Existe una zona gris entre las armas automáticas y las autónomas", explica Michael Biontino, hasta hace poco embajador alemán de desarme en Ginebra. "Las armas autónomas reconocen sus objetivos por ellas mismas, no tienen una biblioteca de blancos registrada con anterioridad".
No hay ninguna duda de que se encuentran trabajando en estos sistemas Estados Unidos, Rusia, China, Israel, Corea del Sur y Reino Unido. Son armas que ya existen, asegura Neil Davison, del Comité Internacional de la Cruz Roja (CICR), organismo que vigila el cumplimiento del derecho humanitario, de las Convenciones de Ginebra, y que está preocupado por esta situación.
"Los ataques deben limitarse estrictamente a los objetivos militares", establece, por ejemplo, la Convención de Ginebra. ¿Pueden decidir esto las máquinas? "El ser humano tiene que mantener suficiente control para que se tomen medidas que sean legales", opina Davison.
Agencia DPA
Temas
Otras noticias de Robots
- 1
Renault Gordini modelo 2025: así sería el histórico vehículo, según la IA
- 2
Histórico: China repavimentó casi 160 km de autopista con máquinas autónomas
- 3
Se termina el Impuesto PAIS: cuánto costará un iPhone en el exterior desde diciembre 2024
- 4
Las 5 señales que muestran que tenés una mentalidad positiva, según un análisis de IA