Decenas de países piden regular el uso de la IA en la industria militar
Decenas de países, entre ellos Estados Unidos, China y varios latinoamericanos, llamaron este jueves a regular el desarrollo y el uso de la inteligencia artificial (IA) en el ámbito militar, ante el riesgo de "consecuencias no deseadas".
"Hay preocupación en el mundo entero en cuanto al uso de la IA en el ámbito militar y la potencial falta de fiabilidad de los sistemas de inteligencia artificial", destaca el texto publicado al término de la primera conferencia internacional sobre este asunto, celebrada en La Haya.
El texto fue firmado por más de 60 países, entre los que figuran Estados Unidos y China, y también Reino Unido, Francia, Suiza, España, Bolivia, Chile, Ecuador, El Salvador y Guatemala.
En él se manifiestan las preocupaciones en cuanto a la "falta de claridad sobre la responsabilidad" de la inteligencia artificial aplicada a la Defensa, y las "potenciales consecuencias no deseadas".
A nivel militar, la IA ya se emplea en el reconocimiento, la vigilancia y el análisis de situaciones. En el futuro podría servir para designar objetivos de manera autónoma, o para incorporarse a los sistemas de mando y control nuclear.
"Nunca dejen que el factor humano escape a la responsabilidad que debe asumir; no la confíen jamás a la inteligencia artificial", destacó en una mesa redonda el general Jörg Vollmer, ex comandante de la OTAN.
La conferencia, organizada por Países Bajos y Corea del Sur, reunió a unos 2.000 delegados, procedentes también de empresas tecnológicas y de organizaciones de la sociedad civil. Rusia no fue invitada, por la invasión de Ucrania.
Los expertos consideran que estamos aún lejos de un tratado internacional que regule el uso de la IA, tal como sucede con las armas químicas y nucleares.
No obstante, los participantes coincidieron en la urgencia de establecer directrices.
Igualmente anunciaron la creación de una comisión mundial sobre la IA, para aclarar la definición de la tecnología en el ámbito militar y determinar su uso responsable.
jhe-jcp/avl/mb