La Comisión Europea (CE) anunció que creará un grupo de expertos, cuya conformación se conocerá el próximo 9 de abril, para debatir sobre los desafíos éticos que plantea el desarrollo de la inteligencia artificial y su impacto en los derechos fundamentales de la Unión Europea (UE).
"Esto requiere una discusión amplia, abierta e inclusiva sobre cómo utilizar y desarrollar la inteligencia artificial exitosa y éticamente", explicó en un comunicado el Ejecutivo comunitario.
De esta forma, abrió el proceso de solicitud para formar parte de ese grupo que deberá estar constituido para el próximo 9 de abril, informó la agencia EFE.
"Tendrá como misión redactar unas directrices en base a aspectos como justicia, seguridad y transparencia, el futuro del empleo, la democracia y, con más amplitud, su impacto en la aplicación de la Carta de los Derechos Fundamentales de la UE", precisó la Comisión.
El vicepresidente de la CE para Mercado Único Digital, Andrus Ansip, señaló al respecto que el Ejecutivo comunitario intenta con estas iniciativas establecer "el entorno adecuado para que Europa aproveche al máximo lo que la inteligencia artificial puede ofrecer".
"Los datos, las supercomputadoras y la inversión audaz son esenciales para el desarrollo de la inteligencia artificial, junto con una amplia discusión pública combinada con el respeto de los principios éticos para su uso", añadió Ansip.
El grupo de expertos apoyará su trabajo en la declaración hecha pública hoy por el Grupo Europeo de Ética en la Ciencia y en las Nuevas Tecnologías (EGE, por sus siglas en inglés), un panel independiente que asesora a la CE y que consideró que la inteligencia artificial plantea "cuestiones morales urgentes y complejas".
Esa declaración "llama a que se lance un proceso que allane el camino hacia un marco ético y legal común, internacionalmente reconocido para el diseño, producción, uso y gobernanza de la inteligencia artificial, la robótica y los sistemas 'autónomos'".
El EGE incluye en el debate tanto aparatos automatizados como robots inteligentes capaces de aprender o programas informáticos que imitan el comportamiento humano, como los llamados "bots", y traza algunos de los desafíos que acarreará su desarrollo.
"¿Cómo debe atribuirse y asignarse la responsabilidad moral y quién es responsable (y en qué sentido) de los resultados adversos?", se plantean los asesores externos de la Comisión Europea en ética y tecnología, en referencia, por ejemplo, a un accidente de tráfico causado por un vehículo autónomo.
La declaración señala algunos campos de interés para la reflexión global que solicita, como la seguridad en un mundo interconectado con aparatos de inteligencia artificial, su regulación, diseño, desarrollo, inspección, vigilancia, ensayos y certificación.
La citada declaración y el futuro grupo de expertos contribuirán a nutrir un debate que no es nuevo en las instituciones comunitarias, después de que el año pasado la eurodiputada luxemburguesa Mady Delvaux presentara un informe al respecto que aprobó el Parlamento Europeo.
Agencia EFE
LA NACIONOtras noticias de Inteligencia artificial
Más leídas de Tecnología
Clave. Los trucos de WhatsApp más simples y prácticos que son fáciles de aplicar
Similares a los Ray-ban de Meta. Samsung tendrá su línea de anteojos inteligentes en 2025
Cuidado. Qué significa quitar la foto de perfil en WhatsApp, según un psicólogo
Auto clásico. Cómo se vería el histórico Dodge GTX modelo 2025, según la IA