El reglamento, que entrará en vigor en cuanto reciba también el visto bueno final de los Estados miembros, ha sido aprobado con 523 votos a favor y solo 46 en contra
- 7 minutos de lectura'
El Parlamento Europeo ha dado su visto bueno de forma masiva al reglamento de inteligencia artificial, al que ya solo le queda la ratificación formal de los Estados para convertirse en la primera ley integral del mundo que busca regular una tecnología que está transformando el planeta, no siempre para mejor. Los eurodiputados han validado este miércoles la normativa, que busca, según aseguran sus ponentes, precisamente proteger derechos fundamentales ciudadanos sin ponerle trabas a la innovación, por 523 votos a favor, 46 en contra y 49 abstenciones.
El comisario de Mercado Interior y gran impulsor de la ley, Thierry Breton, ha saludado el “aplastante” apoyo de los eurodiputados a una ley que, ha afirmado, convierte a Europa en un “regulador global de una IA fiable”. La IA “forma parte ya de nuestras vidas diarias. Ahora, también será parte de nuestra legislación”, ha dicho por su parte la presidenta del Parlamento Europeo, Roberta Metsola, que ha dirigido la votación en Estrasburgo.
Breton, por su parte, ha asegurado estar “listo” para la implementación del reglamento, que podrá empezar a entrar en vigor en pocos meses: del lado de la Eurocámara, queda una última “comprobación jurídica-lingüística” puesto que el texto de la ley no ha podido ser traducido aún a todos los idiomas oficiales, algo que será realizado en principio sin obstáculos (sobre todo en vista del fuerte apoyo a la normativa en el voto clave de este miércoles) en el próximo y último pleno de este mandato, en abril. Lo principal ahora es que los Estados le den también su visto bueno final, algo que según fuentes diplomáticas podría pasar en torno al mes de mayo. Aunque este último paso debería ser un mero trámite —ya que ya fue aprobado de forma unánime por los representantes de los países en febrero—, los recientes precedentes en este estadio, con países —sobre todo Alemania, pero también Francia o Italia— dando marcha atrás en el último momento en acuerdos ya negociados, hace que nadie ponga la mano en el fuego hasta que ese último paso esté dado.
En cualquier caso, una vez aprobado, entrará en vigor a los 20 días de ser publicado en el Diario Oficial, momento en el que empezará su implementación gradual —al ser un reglamento, se aplica directamente sin tener que adaptarlo a la legislación nacional— hasta su aplicación total en 2026. Los primeros pasos serán la puesta en marcha de la Oficina de IA, el órgano que supervisará el cumplimiento de la normativa, y que Breton, bajo cuya cartera funcionará, ha adelantado que “promoverá la estrategia europea de la IA, es decir, una IA en la que se puede confiar, que respeta los valores y normas europeas y en la que confían ciudadanos y empresas en todo el mundo”.
Aunque la UE promueve desde ya una implementación voluntaria y también gradual de las futuras reglas para la IA en empresas e instituciones, una de las partes que entrarán en vigor para todos como tarde antes de finales de año es la prohibición de los sistemas prohibidos de inteligencia artificial, que según el reglamento debe implementarse a los seis meses de aprobada la ley.
Un momento importante, ha destacado uno de los relatores del reglamento, el socialdemócrata italiano Brando Benifei, porque dejará claro, ha dicho en rueda de prensa desde Estrasburgo, “que algunos casos están prohibidos y no son bienvenidos en Europa”. Los códigos de buenas prácticas deben estar vigentes nueve meses después de la aprobación de la ley, las normas sobre IA de uso general, incluida la gobernanza, 12 meses más tarde y, finalmente, las obligaciones para los sistemas de alto riesgo en 36 meses.
Requisitos y obligaciones para desplegar la IA en Europa
La ley de IA establece distintos requisitos y obligaciones a las aplicaciones de IA en función de los riesgos que presenta su uso. Las más inocuas, como los filtros de spam o los detectores de duplicados de textos, se pueden usar sin restricción alguna. Se les denomina sistema de riesgos limitados y el único requisito que se les pone a los proveedores es que informen a los usuarios de que están manejando una herramienta de IA.
Por el contrario, las consideradas de riesgo inaceptable quedan totalmente prohibidas, mientras que las de alto riesgo requerirán una supervisión permanente. Entran en la primera categoría los sistemas “que trasciendan la conciencia de una persona o técnicas deliberadamente manipuladoras”, las que exploten sus vulnerabilidades o las que infieran emociones, raza u opiniones políticas de las personas. Por su parte, como alto riesgo son considerados los sistemas de identificación biométrica remota, que un amplio sector del Parlamento quería prohibir terminantemente, aunque tuvo que ceder parcialmente ante los Estados, los sistemas de categorización biométrica o el reconocimiento de emociones. También los sistemas que afecten a la seguridad de las infraestructuras críticas y los relacionados con la educación (evaluación de comportamientos, sistemas de admisión y exámenes), el empleo (selección de personal) y la prestación de servicios públicos esenciales, la aplicación de la ley o la gestión de la migración.
Pese a que la normativa no va todo lo lejos en materia de garantías contra una injerencia de los Estados o las propias tecnologías en las libertades y derechos de los ciudadanos, Benifei ha insistido en que la ley cuenta con las suficientes “salvaguardias”. “Estamos convencidos de que con este texto no hay riesgo alguno de una vigilancia masiva, porque hemos impuesto salvaguardias extremadamente estrictas gracias a una negociación muy dura”, ha aseverado.
Protección de derechos de autor
Una de las cuestiones del reglamento que más atención ha acaparado es cómo se protegen los derechos de autor. Aunque la normativa asegura que todos los sistemas deben garantizar el cumplimiento de los derechos de autor, no dice cómo, más allá de que será competencia de la Oficina de la IA. Pese a ello, algunas de las principales asociaciones que reúnen a creadores y titulares de derechos del sector de la cultura y prensa de Europa han saludado en un comunicado conjunto la aprobación de la ley como un “ejemplo de gobernanza responsable de la IA”, si bien han pedido al Parlamento Europeo que “continúe el apoyo de una IA responsable y sostenible asegurándose de que estas importantes reglas son puestas en práctica de manera significativa y eficiente”.
No ha sido un camino fácil llegar hasta la votación de este miércoles en Estrasburgo. La normativa lleva cinco años en discusión y su texto final solo fue acordado en diciembre pasado, todavía bajo la presidencia española de la UE, tras 38 horas de maratonianas reuniones entre los responsables del Parlamento, la Comisión y el Consejo, la cita más larga de este tipo en la historia de la Unión, como gustan recordar sus protagonistas.
Con todo, aprobar la ley solo es un “punto de partida”, ha subrayado el otro relator principal de la Eurocámara, Dragos Tudorache. “La implementación va a ser clave”, ha indicado en referencia a todas las normativas que buscan regular de alguna manera a las todopoderosas plataformas tecnológicas aprobadas en este mandato europeo, que concluirá con las elecciones europeas de junio. Entre estas destacan, además de la ley de IA, la Ley de Mercados Digitales (DMA, por sus siglas en inglés), un reglamento antimonopolio que busca “poner fin a las prácticas desleales” de gigantes de la economía digital como Meta o Apple, y la Ley de Servicios Digitales (DSA, por sus siglas en inglés) que busca proteger mejor a los consumidores y sus derechos fundamentales, combatiendo entre otros la desinformación o la pornografía infantil. Según Tudorache, una vez “armonizadas” todas estas reglas, se garantizará una “mayor certeza a las empresas, pero también a los ciudadanos”, a la hora de hacer uso de las nuevas tecnologías.