¿Quién controlará que los robots soldados no cambien de bando?
Máquinas de guerra que eligen los objetivos y que matan por decisión propia. ¿Es esto un avance o más bien debería ser prohibido? Una serie de expertos debatirá al respecto desde este lunes y hasta el día 31 de agosto en Ginebra.
La tecnología se denomina Sistemas de Armas Autónomos Letales (LAWS, por sus siglas en inglés) o coloquialmente "robots asesinos", dispositivos que incluyen a robots que disparan, a los drones de ataque o submarinos no tripulados. Durante los combates no los dirigen personas, sino que deciden de manera autónoma los objetivos que consideran legítimos y disparan.
"No hay que dramatizar el asunto", decía hace unos meses el embajador indio Amandeep Gill, quien encabeza el encuentro. "Los robots no controlarán el mundo". Pero los críticos están alarmados.
"Las armas no pueden distinguir entre amigos y enemigos y deben ser analizadas desde el punto de vista del derecho internacional", afirma Thomas Küchenmeister, de la organización alemana Facing Finance, que forma parte de la campaña internacional contra este tipo de armas (Campaign to Stop Killer Robots). La decisión de acabar con una vida humana jamás debería estar en manos de una máquina, argumenta.
Las armas autónomas han sido desarrolladas gracias al veloz avance de la inteligencia artificial. Las computadoras aprenden en base a la información que van recibiendo y deciden qué es un objetivo, cómo se ve, cómo se mueve y cuándo debe ser atacado o detonado sin que una persona participe en la decisión. Es una diferencia clave, por ejemplo, respecto de los misiles "Patriot", que disparan de manera automática, pero que deben ser programados con anterioridad con precisión por seres humanos.
Entre automático y autónomo
"Existe una zona gris entre las armas automáticas y las autónomas", explica Michael Biontino, hasta hace poco embajador alemán de desarme en Ginebra. "Las armas autónomas reconocen sus objetivos por ellas mismas, no tienen una biblioteca de blancos registrada con anterioridad".
No hay ninguna duda de que se encuentran trabajando en estos sistemas Estados Unidos, Rusia, China, Israel, Corea del Sur y Reino Unido. Son armas que ya existen, asegura Neil Davison, del Comité Internacional de la Cruz Roja (CICR), organismo que vigila el cumplimiento del derecho humanitario, de las Convenciones de Ginebra, y que está preocupado por esta situación.
"Los ataques deben limitarse estrictamente a los objetivos militares", establece, por ejemplo, la Convención de Ginebra. ¿Pueden decidir esto las máquinas? "El ser humano tiene que mantener suficiente control para que se tomen medidas que sean legales", opina Davison.
Agencia DPA
Temas
Otras noticias de Robots
Más leídas de Tecnología
En enero. ChatGPT prepara una función clave para transformarse en un verdadero asistente
Para incentivar más descubrimientos. Cómo funciona la nueva IA de la Nasa que recopila toda la información científica de la Tierra
Darío Werthein, presidente de Vrio Corp. “Ya estamos en el nuevo mundo que nos impone la IA”
Seguridad. Las tres nuevas herramientas de Google para proteger tu celular si te lo roban