Parlamento Europeo adoptó ley que regula el uso de la Inteligencia Artificial en la UE
El plenario del Parlamento Europeo aprobó este miércoles una ambiciosa regulación sobre el uso de la inteligencia artificial en la UE, en el último paso antes de su adopción formal en todo el bloque.
En la plenaria de este miércoles, la ley obtuvo un amplio respaldo, siendo aprobada por 523 votos a favor, 46 en contra y 49 abstenciones.
El proyecto de ley original, considerado inédito a nivel mundial, había sido presentado por la Comisión Europea, el brazo ejecutivo de la Unión Europea, en abril de 2021.
Sin embargo, la aparición a finales de 2022 de ChatGPT, de la empresa californiana OpenAI, capaz de escribir disertaciones, poemas o hacer traducciones en segundos, le otorgó al proyecto una nueva dimensión.
Este sistema reveló el enorme potencial de la IA, pero también expuso sus riesgos. La difusión de fotografías o vídeos falsos puso de relieve el peligro de manipulación de la opinión pública.
"Este es un día histórico en nuestro largo camino hacia una regulación de la Inteligencia Artificial", dijo el legislador italiano Brando Benifei, uno de los ponentes del texto, junto con el rumano Dragos Tudorache.
En su último discurso antes de la votación, Benifei dijo que se trata de la "primera regulación en el mundo que define un camino claro hacia un desarrollo de la Inteligencia Artificial centrada en los seres humanos".
Por su parte, Tudorache dijo que "hemos logrado un equilibrio muy delicado entre el interés por la innovación y los intereses que deben ser protegidos".
Por su parte, el comisario europeo de Mercado Interno, Thierry Breton, saludó que el voto de este miércoles en el Parlamento Europeo significa que la UE es un "definidor de estándares" en materia de una Inteligencia Artificial "confiable".
Luego del voto de este miércoles, se espera que los 27 países del bloque respalden este ley en abril, y que el texto sea publicado en el Diario Oficial de la UE en el mes de mayo.
- Modelos con requisitos diferentes -
La normativa adoptada prevé que los modelos de IA de "propósito general" deberán cumplir con las obligaciones de transparencia, así como con las normas europeas de derechos de autor.
En tanto, los sistemas considerados "de alto riesgo" (como los utilizados en infraestructuras críticas, educación o aplicación de la ley) estarán sujetos a requisitos más estrictos.
Estos sistemas tendrán que prever la implementación de un análisis de impacto obligatorio sobre los derechos fundamentales.
El texto respaldado por los eurodiputados también prevé prohibir la calificación ciudadana o los sistemas de vigilancia masiva, o incluso la identificación biométrica remota de personas en lugares públicos.
La legislación define medios de vigilancia y sanciones, mediante la creación de una Oficina Europea de IA.
Esa instancia podrá imponer multas que van desde 7,5 millones de euros o el 1,5% de la facturación delas empresas afectadas, hasta 35 millones de euros o el 7% de la facturación global, dependiendo de la infracción y el tamaño de la empresa.
No obstante, no todas las voces son tan entusiastas con la normativa.
"Muchas de estas nuevas normas siguen sin estar claras y podrían ralentizar el desarrollo y la implementación de aplicaciones innovadoras", apuntó Boniface de Champris, director europeo de la CCIA, un lobby del sector.
En tanto, el Observatorio Multinacional (Francia), el Observatorio Empresarial Europeo (Bélgica) y LobbyControl (Alemania) temen que los grupos de cabilderos debiliten la implementación de las normas en torno a la IA.
"Muchos detalles de la ley siguen abiertos y necesitan ser aclarados", señalaron esas tres entidades en una declaración conjunta.
La composición del consejo asesor de la nueva agencia europea de IA tampoco está clara", apuntaron.
Ahg/zm