La Cumbre sobre Seguridad de la Inteligencia Artificial analiza la “amenaza existencial” de esta tecnología, pero también riesgos ya presentes como la desaparición de puestos de trabajo o la desinformación a gran escala
- 7 minutos de lectura'
Es complicado regular aquello que se desconoce. Resulta mucho más fácil, sin embargo, ponerse de acuerdo en los miedos compartidos. Miedos ante los riesgos de una tecnología con la capacidad revolucionaria como lo que alberga la inteligencia artificial (IA). 28 países han firmado este miércoles la Declaración de Bletchley, por la que se comprometen a reforzar la coordinación internacional entre todos aquellas investigaciones científicas que hoy analizan los riesgos para la seguridad que encierra la IA. “Para que la mejor ciencia disponible contribuya al diseño de políticas públicas y al bien común”, dice el texto.
El tono de la declaración puede despertar un comprensible escepticismo, porque acumula buenas palabras y propósitos, pero pocos compromisos concretos. Pero el hecho de que hayan puesto su rúbrica potencias como Estados Unidos, China o la Unión Europea, sugiere la voluntad de buscar esa respuesta conjunta ante un desafío histórico. La Casa Blanca ha enviado a la Cumbre de Seguridad en Inteligencia Artificial, organizada por el Gobierno británico, a la vicepresidenta Kamala Harris, que ha impulsado personalmente la agenda estadounidense sobre la IA. China, que lidera el número de patentes y proyectos en torno a la IA, ha sido invitada expresamente por Downing Street, y ha estado representada por el viceministro de Ciencia y Tecnología, Wu Zhaohui.
Bletchley Park, una sede muy especial
El Gobierno británico ha elegido un lugar emblemático para la cumbre: Bletchley Park. Aquí fue donde un equipo de descifradores de códigos y expertos en encriptación arrojaron luz sobre los mensajes del ejército alemán durante la Segunda Guerra Mundial. A ochenta kilómetros de Londres, Alan Turing, el padre de la computación, descifró el código de la máquina Enigma. Y fue Turing quien diseñó el test que lleva su nombre, conocido también como el “juego de la imitación”. Así se llamaba, en su título original, la película que, de un modo poco preciso, los cines de España tradujeron como Descifrando Enigma. Porque la pregunta inicial del Test de Turing, “¿Pueden pensar las máquinas?”, fue posteriormente reformulada en 1950 por el propio matemático: “¿Existirán computadoras digitales imaginables que tengan un buen desempeño en el juego de imitación?”. Es decir, que fueran capaces de hacer creer a un ser humano que se comunicaba con otro ser humano. Cualquiera que haya conversado con un chatbot o haya planteado las preguntas más complejas posibles a ChatGPT puede presumir que ya hay respuesta para Turing, y que la aceleración con que avanza la IA obliga a los gobiernos y las empresas tecnológicas a diseñar una regulación ética similar a la que un día se puso en marcha frente al descubrimiento del ADN y las terapias genéticas.
“Un gran número de expertos líderes en la materia están seriamente preocupados ante la idea de que los avances incontrolados de la IA puedan llevarnos a consecuencias catastróficas”, advertía en la apertura de la cumbre Ian Hogarth, el empresario que se hizo multimillonario con la aplicación Songkick, que rastreaba conciertos musicales, y que lleva desde 2018 escribiendo un informe anual sobre el Estado de la IA que la industria del sector sigue con atención. Hogarth ha estado al frente del Equipo de Trabajo sobre Seguridad de la IA financiado por el Gobierno de Sunak con más de 120 millones de euros. “Me precupa que una carrera sin control derive en futuros sistemas que socaven la democracia, refuercen los sesgos discriminatorios o desestabilicen las sociedades”, anunciaba Hogarth.
“Amenaza existencial” y riesgos presentes
Perspectivas tan catastrofistas, reconoce el informe, no cuentan con el consenso de la comunidad científica, dividida entre los más optimistas y los más pesimistas. Por eso, el equipo de trabajo, en la línea defendida por la vicepresidenta estadounidense Harris y expresada esta semana en la Orden Ejecutiva sobre seguridad de la IA aprobada por la Casa Blanca, prefiere centrarse en amenazas ya concretas y reales. Sobre ellas quieren trabajar también los más de cien participantes en la cumbre de Bletchley. Incluyen tanto el sesgo discriminatorio que pueden impulsar determinados algoritmos, la proliferación de fake news y desinformación “a una escala y un nivel de sofisticación sin precedentes”, o la capacidad de llevar a cabo ciberataques o desarrollar armas biológicas. “La IA de frontera seguirá rebajando, con todas seguridad, el nivel de las barreras de entrada, y permitirá el acceso a actores amenazantes poco sofisticados”, asegura el texto.
Y como amenaza más preocupante para la estabilidad social, el riesgo de desaparición de puestos de trabajo. “Para 2030, los impactos más extremos [de la IA] seguirán confinados a sectores muy concretos, pero pueden ser capaces de provocar una respuesta violenta de la ciudadanía, empezando por aquellos cuyo trabajo se vea alterado. Todo ello puede alimentar un fiero debate público en torno al futuro de la educación y del empleo”, advierte el informe.
“Lo más relevante de este encuentro, en mi opinión, es la idea de que no debemos solo concentrarnos en los riesgos futuros, sino en los de hoy en día, que no solo se refieren a la seguridad nacional o a la amenaza terrorista, sino a riesgos y amenazas reales para nuestra sociedad respecto a la salud mental o a casos de discriminación”, defendía Carme Artigas, secretaria de Estado de Digitalización y copresidenta del Órgano Consultivo de Alto Nivel de la ONU sobre Inteligencia Artificial. “Hay una sensación de urgencia respecto a la necesidad de señalar esos riesgos que afectan a derechos fundamentales de los ciudadanos y la sociedad”, añadía.
“Reconocemos, de este modo, que nos hallamos ante un momento único para actuar, y para reafirmar la necesidad de un desarrollo con seguridad de la IA. Para que sus oportunidades transformadoras sean usadas en beneficio de todos, de manera inclusiva, en cada uno de nuestros países y de manera global”, afirma la Declaración de Bletchley.
Junto a la presencia de Harris, el Gobierno británico se ha asegurado de que estén en Bletchley Park figuras relevantes como la presidenta de la Comisión Europea, Ursula von Der Leyen, o el secretario general de Naciones Unidas, Antonio Guterres. Downing Street no ha logrado contar con personajes clave como el presidente de Francia, Emmanuel Macron, o el canciller alemán, Olaf Scholz, pero la urgencia del asunto ha llevado a la cumbre a las instituciones académicas más relevantes, cuando de IA se trata, y a los principales gigantes tecnológicos, como Amazon, Alibaba, Meta, IBM, Anthropic, Google Deep Mind, Microsoft o Meta. Hasta el Reino Unido se han desplazado Elon Musk, el dueño de Tesla o SpaceX, cofundador de OpenAI, y polémico propietario ahora de la red social X (antes Twitter) y Sam Altman, el director ejecutivo de OpenAI, la compañía que está detrás del revolucionario ChatGPT. Sunak se ha comprometido a mantener un diálogo con el imprevisible Musk este mismo jueves, al término de la cumbre.
“Por primera vez en la historia, nos enfrentamos a algo que es mucho más inteligente que el ser humano. Nunca hemos sido más fuertes o rápidos que otros seres vivos, pero éramos más inteligentes. Y ahora, por primera vez, nos enfrentamos a algo más inteligente que nosotros”, ha dicho Musk a su llegada a Bletchley Park.
Para completar el toque esencialmente británico de una cumbre celebrada en un lugar que celebra lo mejor de la historia reciente del Reino Unido, no podía faltar la intervención -vía video pregrabado- de Carlos III. El monarca, con la voz y el tono perfectos para añadir drama a cualquier discurso, comparaba la IA con “el descubrimiento de la electricidad, la división del átomo, la creación de internet o incluso el descubrimiento y control del fuego”, y reclamaba un “sentido de la urgencia, unidad y fuerza colectiva” para hacer frente a los riesgos que la nueva tecnología trae consigo.