Es ante la posible creación de armas autónomas, que deciden por sí mismas cuándo y a quién atacar
La comunidad internacional abordó en la ONU, en una reunión que terminó la semana pasada, posibles respuestas a los sistemas armamentísticos autónomos letales (descriptos a veces como "robots asesinos"), capaces de operar sin instrucciones humanas, como un código de conducta o un mecanismo de revisión de la tecnología.
"Se abordaron los pros y los contras y barajaron una gama de opciones políticas, que van desde adoptar una declaración políticamente vinculante, un código de conducta, un mecanismo de revisión continuada de la tecnología y un instrumento legalmente vinculante", afirmó el embajador de la India ante la Conferencia de Desarme de la ONU, Amandeep Gill.
El diplomático indio preside el Grupo de Expertos Gubernamentales sobre Sistemas de Armas Autónomos Letales que se reunió del 13 de noviembre hasta el viernes en Ginebra para abordar por primera vez de manera formal en la ONU los desafíos y las implicaciones éticas, técnicas, legales y militares de los llamados "robots asesinos".
La semana pasada, fuentes de Cancillería argentina habían afirmado a Télam: "Nuestro país acompañó la posición de adoptar un enfoque preventivo y prohibir el desarrollo de sistemas de armas letales totalmente autónomas, tema que trabajan los ministerios de Exterior y Defensa".
En el encuentro participaron algunos de los 125 Estados parte de la Convención, así como representantes de organizaciones internacionales, de la industria y de la sociedad civil, ONG y académicos.
Gill explicó que de este debate saldrán unas conclusiones y recomendaciones y, si hay consenso, la convocatoria para 2018 de una nueva reunión más larga, de dos semanas, sobre los "robots asesinos", informó la agencia EFE.
Es entonces cuando las partes pretenden determinar los rasgos de esta tecnología y los sistemas de armas autónomos letales para llegar a un entendimiento común acerca de "con qué lidiamos".
Armas autónomas
Actualmente hay mucha confusión en torno a este concepto y no hay constancia de la existencia de "robots asesinos".
De acuerdo con especialistas, los avances en el ámbito de la inteligencia artificial permitirán en poco tiempo crear armas, por ejemplo drones, capaces de operar de forma autónoma en el campo de batalla y de tomar decisiones por sí solos sin instrucciones humanas.
Una veintena de países ya pidieron prohibir esos sistemas, mientras activistas de derechos humanos advierten que al menos seis Estados están invirtiendo en este tipo de tecnología.
Gill quiso transmitir un mensaje tranquilizador a la sociedad, al afirmar que "la buena noticia es que los robots no están tomando el control del mundo".
"Los humanos aún están al mando y continuarán estando en el control, y nos aseguraremos de que así siga siendo", aseguró.
En la próxima cita, la intención del diplomático es que se aborde la temática de la "interfaz humano-máquina", que se refiere a la interacción de la persona y un programa informático y que en el caso de los "robots asesinos" puede significar seguir o no controlándolos de alguna manera, frenarlos o retirarlos del campo de batalla.
LA NACIONOtras noticias de Robots
Más leídas de Tecnología
En enero. ChatGPT prepara una función clave para transformarse en un verdadero asistente
Para incentivar más descubrimientos. Cómo funciona la nueva IA de la Nasa que recopila toda la información científica de la Tierra
Darío Werthein, presidente de Vrio Corp. “Ya estamos en el nuevo mundo que nos impone la IA”
Seguridad. Las tres nuevas herramientas de Google para proteger tu celular si te lo roban