Cómo detener a los robots asesinos
De los creadores de "los robots van a venir y sacarnos el trabajo" llega "los robots van a venir y matarnos a todos". Suena como apenas otro ejemplo del desgastante sensacionalismo que parece excitar cualquier conversación acerca de inteligencia artificial o automatización, pero la preocupación por los "robots asesinos" es más bien concreta y ampliamente ignorada.
La semana pasada se llevó a cabo en Ginebra la reunión anual de la Convención sobre Ciertas Armas Convencionales (CCA) cuyo fin es prohibir o limitar el uso de aquellas armas que se considere causen innecesario o injustificado daño tanto a combatientes como a civiles, que incluyen minas antipersonales, bombas de racimo e incluso armas láser cegadoras.
Las discusiones de este grupo de expertos gubernamentales desde hace ya varios años empezaron a centrarse en la autonomía en sistemas de armas. La preocupación no es ni por asomo un posible levantamiento de máquinas inteligentes, sino el equivalente a conectarle una ametralladora a una máquina no más inteligente que una tostadora, pero con la capacidad de decidir si disparar o no.
Lo que se busca es adelantarse a posibilidades técnicas concretas (este tipo de máquinas ya existe) y determinar cuál debe ser el tipo y grado de control de ellas que los humanos deberían tener para que se garantice el respeto del derecho internacional humanitario y se atiendan ciertas preocupaciones éticas. En otras palabras, lo que se viene discutiendo es si debería detenerse o no a los robots asesinos.
De aquí toma su nombre la Campaña para Detener a los Robots Asesinos, cuya retórica puede sonar desconcertante pero en este contexto a lo que refiere es al desarme humanitario de armas autónomas. Estas no solo incluyen a drones armados, torretas automáticas o tanques no tripulados, sino también a las minas antipersonales, histórica preocupación de la ONU. Si bien cualquier uso de la expresión "robots asesinos" suele ser cuestionable, en este caso parecería cumplir con su propósito: generar la conciencia necesitada con urgencia para instalar esta discusión en la agenda pública antes de que sea demasiado tarde.
El resultado del último encuentro de la CCA la semana pasada fue nuevamente decepcionante. Se presentó un reporte que aún no está disponible y ningún estado se opuso a continuar la discusión. Pero como la CCA toma sus decisiones por consenso unánime, alcanza con uno solo para que se caiga un acuerdo. Y así fue como Rusia logró que el año próximo se le dediquen 7 días a la discusión en vez de los 10 acordados previamente y que se sacara de agenda la preocupación por armas incendiarias.
La Campaña para Detener a los Robots Asesinos comenzó en 2012 y se hizo efectiva al año siguiente. Desde entonces esta coalición de 86 ONGs de 49 países viene trabajando por la prohibición preventiva de armas autónomas, capaces de elegir y atacar blancos elegidos sin intervención humana. Una de las consideraciones más preocupantes de la adopción de este tipo de armas es la subsecuente carrera armamentística y la disminución del costo que conlleva iniciar un conflicto bélico
La discusión respecto de la tolerancia o no de robots asesinos no es en absoluto sencilla y está plagada de sutilezas. No solo la definición de arma autónoma es escurridiza, sino que incluso es difícil especular respecto del desenlace de un conflicto bélico que las utilice. Desde la posibilidad de que la guerra desaparezca por completo (con probabilidad casi nula), la disminución del sufrimiento en el campo de batalla, la destrucción mutua asegurada de los participantes, hasta la disminución del umbral de guerra o la desintegración de la cadena de mando (el desenlace más probable), la incorporación de "robots asesinos" plantea una preocupante paradoja: las armas autónomas podrían contribuir a lograr los objetivos militares con eficiencia, pero también podrían provocar riesgos de seguridad inconmensurables al alterar la cadena de mando.
La recomendación general, sin embargo, suele ser siempre la misma: los estados deberían abstenerse de desarrollar y utilizar armas autónomas, y a nivel internacional deberían incorporarse nuevas reglas para la guerra. En la actualidad los conflictos bélicos siguen, o procuran seguir, los principios de jus ad bellum (reglas para iniciar una guerra) y jus ad bello (reglas para comportarse durante la guerra). Lo que se propone es incorporar un tercer principio de ordo belli (orden de la guerra), que explicite la forma en que una fuerza militar debería actuar para considerarse legítima. Como sugiere Marko Kovic del Zurich Institute of Public Affairs Research, la discusión acerca de la cadena de mando en la guerra no es nueva, pero con la incorporación de agentes no-humanos es muy probable que se vuelva aún más complicada.
Como se hizo evidente la semana pasada en otro informe elaborado por el Congreso estadounidense respecto del mismo tema: Estados Unidos desarrolla esta tecnología porque teme que Rusia y China hagan lo mismo, que a su vez sospechan de igual manera de Estados Unidos. En la ONU no se logra acuerdo siquiera de lo que constituye un arma autónoma y los activistas no ceden ante la frustración de procesos glaciales que no hacen más que resultar en informes de todos los colores pero no medidas concretas.
Las próximas reuniones de la CCA se darán en marzo y agosto, con la convención anual en noviembre. Reuniones anteriores lograron acordar tratados internacionales para prohibir minas antipersonales y bombas de racimo. Es momento de detener a los robots asesinos.
Otras noticias de Robots
Más leídas de Tecnología
Clave. Los trucos de WhatsApp más simples y prácticos que son fáciles de aplicar
Similares a los Ray-ban de Meta. Samsung tendrá su línea de anteojos inteligentes en 2025
Cuidado. Qué significa quitar la foto de perfil en WhatsApp, según un psicólogo
Auto clásico. Cómo se vería el histórico Dodge GTX modelo 2025, según la IA