Vivimos un momento impredecible, dicen los mayores especialistas en la materia; una charla en el Instituto para los Estudios del Futuro de Estocolmo es busca de un poco de luz
- 15 minutos de lectura'
El cuestionario se proyecta sobre un cristal táctil suspendido en medio de la exposición. Las preguntas se iluminan a la vista de todos: ¿Te implantarías un chip en el cerebro para ser más listo? ¿Dejarías a tu madre anciana o a tu bebé al cuidado de un robot? ¿Debería tener derechos dicho robot? ¿Dejarías que una inteligencia artificial programada para ser imparcial fuese juez? ¿Transferirías tu conciencia a la nube para vivir eternamente? El espectador posa la mano sobre el “Sí” o el “No” que aparecen en pantalla. Es una suerte de güija futurista en la que uno es el fantasma del pasado.
Aunque te hace sentir viejísimo, la exposición Hyperhuman del Museo de Tecnología de Estocolmo ni siquiera es tan nueva. Se inauguró hace un par de años, mucho antes de que ChatGPT copase las portadas de los medios generalistas y las preocupaciones globales. Muchísimo antes de que Claude Shannon (1916-2001), padre del bit y la teoría de la información, soltase una de las frases que cierra la muestra: “Visualizo un momento en el que seremos para los robots lo que los perros son para los humanos. Y yo apuesto por las máquinas”.
Según muchos expertos, aún no estamos ahí, pero vivimos en la posible bisagra hacia la distopía. Un momento en el que todo un vicepresidente de Google deja el puesto para dedicarse a llamar la atención sobre “el problema existencial que supone la inteligencia artificial”. Un momento en el que un millar de investigadores, empresarios e intelectuales de primer nivel (Elon Musk, Yuval Noah Harari, Steve Wozniak…) firman una carta abierta pidiendo una moratoria para regular los “modelos impredecibles” más allá de ChatGPT4. “¿Deberíamos desarrollar mentes no humanas que tarde o temprano nos van a superar en número e inteligencia, tornándonos obsoletos y reemplazables?”, reflexiona la misiva. Max Tegmark, profesor de inteligencia artificial en el MIT y presidente del Instituto Future of Life, que impulsó la carta, admite en sus entrevistas que “no sabemos cómo parar el meteorito que hemos creado”.
Cuando ni los mayores expertos del mundo tienen respuestas, el lego, felizmente inconsciente o sencillamente aterrorizado, ni siquiera es capaz de formular las preguntas pertinentes.
Para buscar algunas de las que nos deberíamos estar haciendo, viajamos a otro lugar de Estocolmo, lejos de los brillos de ciencia ficción de la exposición. Discretamente anidado sobre el Centralbadet de la ciudad –un delicioso spa art nouveau inaugurado en 1904– se encuentra el Instituto para los Estudios del Futuro, una disciplina surgida en los años sesenta que proyecta de manera científica escenarios probables a largo plazo para la humanidad. En el frondoso y húmedo invernadero que acoge la cafetería de los baños, Gustaf Arrhenius, profesor de filosofía, explica que el instituto que dirige no es, “en absoluto”, un think tank: “No tenemos una ideología. Somos muy interdisciplinares y nos hacemos preguntas que no encajan en el estándar”. La principal es: “¿Qué podemos hacer para alcanzar un futuro más deseable y qué debemos hacer para evitar los peores de entre los posibles?”. El instituto tiene enfrascados en distintos proyectos a un centenar de investigadores (sociólogos, filósofos, politólogos, economistas, matemáticos…) de una quincena de países y cuenta con un presupuesto de ocho millones de euros; dos de ellos, subvencionados por el gobierno sueco. Sus resultados se presentan en publicaciones científicas, se trasladan a los políticos y a quienes toman las decisiones (tanto en Suecia como en otros países de la Unión Europea), y se transmiten al gran público. El lugar es un paréntesis humanista, un espacio para pensar sobre las generaciones futuras, la justicia social o el impacto de la tecnología.
La primera duda es evidente: ¿Llegamos tarde al cuestionamiento de la tecnología? “Los ciudadanos, la sociedad y, sobre todo, los reguladores van siempre por detrás de los avances”, dice Arrhenius, que plantea dos líneas temporales, no excluyentes, por las que la IA preocupa a los estudios del futuro. Por un lado, hay dilemas que “ya están aquí”: violaciones de la privacidad en una sociedad cada vez más vigilada, deep fakes imposibles de cazar o el uso burocrático de IA, por ejemplo, para asignar pensiones, permisos o la libertad condicional de los presos. Por otro lado, hay problemas que “están aún muy lejos”, véase la extinción de la raza humana a manos de máquinas superinteligentes. “Personalmente, más que lo que vayan a hacer las máquinas por sí mismas, me preocupa lo que pueda estar haciendo la gente con ellas”, aclara el filósofo.
Karim Jebari, también filósofo e investigador en el centro, hace la distinción tecnológica entre ambos problemas: por un lado, está la IA débil o especializada, con la que convivimos. Es la que nos recomienda series en Netflix, autocompleta nuestras búsquedas en Google, reconoce nuestra cara en el iphone, ayuda a servicios sociales a decidir si retira una custodia o charla con nosotros sobre la existencia de Dios en ChatGPT. Por otro lado, tenemos la IA fuerte, o general (IAG), una mente tan inteligente como la humana (con las ventajas de ser digital, como replicarse o aprender a velocidad vertiginosa) que podría hacer infinidad de cosas, incluida tener nuestro destino en sus manos. Aún no existe. “Los problemas que pueden generar son distintos, pero merece la pena explorar ambos”, sostiene Jebari, que añade que “es desafortunado que a veces se confundan”.
Los inmensos dilemas que ya plantea la IA, sin necesidad de imaginar un mundo en el que los robots voten o aniquilen a la humanidad, están solo empezando a ser abordados por los reguladores. La UE firmó a principios de mayo el texto de la Ley de Inteligencia Artificial, que se espera que entre en vigor en 2025. El hecho de que el cuestionamiento ético y legislativo sea posterior a la implementación de las tecnologías no es necesariamente malo, dice Jebari: “Los problemas importantes surgen cuando hay una aplicación específica; tiene sentido mantener estas discusiones una vez que vemos cómo se usan las herramientas”.
“Por naturaleza, los reguladores son lentos y la tecnología se mueve cada vez más deprisa”, añade el economista Pontus Strimling, que señala otro matiz: “Las tecnologías generales como el motor de combustión, los ordenadores o la IA generan muchos problemas a corto plazo, pero a largo plazo crean una sociedad mejor. El riesgo cuando estos saltos tecnológicos se acortan cada vez más es que empalmemos un período problemático con el siguiente”.
Quizá en parte por ello, ¿habría que pausar el desarrollo de los grandes modelos de lenguaje como pide la carta que los expertos firmaron en marzo? “Creo que es una gran idea, pero no porque me preocupe la extinción de la especie, sino porque nos serviría para recuperar la sensación de control”, considera Strimling. Según el especialista en cambios culturales y normas, “el gran público, incluso la clase política, siente que la tecnología es algo que nos ocurre, no algo que hacemos que ocurra”. Hemos olvidado que es una creación humana y que “estamos al mando –recuerda–. Al menos en las democracias, podemos quedarnos con lo que nos funciona de la IA y descartar lo que no queremos”.
¿Pero no es el avance imparable? “Durante el último año, el discurso dominante, especialmente desde la propia comunidad tecnológica, lo marcó el determinismo tecnológico: esto va a llegar, hagamos lo que hagamos. Pero, simplemente, no es cierto”, elabora Jabari, mencionando que a lo largo de la historia el ser humano cambió o paró el desarrollo de múltiples tecnologías. Recientemente, menciona, la clonación humana, los alimentos transgénicos o la energía nuclear. “Cuando mucha gente piensa que algo es peligroso, los políticos actúan”, resume el filósofo. ¿Debemos frenar el desarrollo de la IA entonces? “Evidentemente, si así lo creemos, estamos en una democracia; si la gente pide restricciones, se pondrán; incluso los Estados que no son democráticos lo hacen, China también echa el freno cuando siente que algo se le va de las manos”, detalla.
Parte del razonamiento de quienes piden una moratoria pactada por todos los actores es que la competencia entre empresas promueve avances poco cautelosos. ¿Es la clave del problema que el desarrollo de la IA esté en manos privadas? “Que las corporaciones lideren la carrera es problemático”, opina Arrhenuis, “ya que los incentivos para acatar las consideraciones éticas podrían verse superados por el afán de lucro y el miedo a quedarse atrás frente a sus competidores”. Sin negarlo, Strimling agrega, sin embargo, un matiz que arranca con una anécdota: “Hace años, fue precisamente un desarrollador de DeepMind [laboratorio de IA adquirido por Google en 2014] el primero que me habló preocupado sobre el futuro de estos modelos, mucho antes de que las ciencias sociales reaccionasen; desde entonces, he hablado con desarrolladores que sienten que están en el Proyecto Manhattan”. Es decir, no cree que haya una “especial reticencia” en el sector a ser regulado, ya que muchos especialistas viven con desasosiego los avances en los que colaboran. De hecho, el economista siente que algunos tecnólogos tienen una “visión exagerada”, más distópica que la media, del futuro. “Quizás porque ven todas las posibilidades y sus problemas derivados, pero lo hacen desde su burbuja”, dice. Y pone un ejemplo: “He visto ingenieros inquietos porque en 2030 todo el mundo tendrá un coche autónomo y será el caos… Eso es no entender cada cuánto se compra un coche la gente normal”.
“En todo lo que rodea a la IA, la división entre optimistas y distópicos está cada vez más polarizada”, señala la socióloga Moa Bursell. En el centro de su último proyecto late una de las grandes preguntas sobre la herramienta: ¿puede ayudar a evitar el error y los sesgos humanos, ser más imparcial, alinearse mejor con ciertos valores o todo lo contrario? La especialidad de Bursell no es la computación, sino la inclusión y la diversidad del mercado laboral, y “como científica social” se declara “neutral” sobre la implementación de inteligencias artificiales en los procesos de selección de personal que estudia. En teoría, explica, pueden ir muy bien (un algoritmo justo libera de papeleo a los departamentos de recursos humanos, que pueden dedicar tiempo a la selección final) o pueden salir terriblemente mal (las máquinas son “mucho más consistentes” que los humanos y, cuando el algoritmo se desvía, lo hace a lo bestia).
Bursell ha sacado el problema del ámbito teórico y analizado su implementación en una empresa concreta para comparar a quién contrataba tras adquirir uno de estos sistemas frente a quién contrataba antes de recibir la ayuda de la máquina. El resultado le sorprendió: el uso de la IA reforzó el patrón de contratación de la empresa, disminuyendo su diversidad; contrataron a más de lo mismo… “¡Pero no fue culpa del algoritmo!”, dice. La IA hizo una preselección equilibrada, fueron los gerentes quienes eligieron con más sesgo a los finalistas. Cuando controlaban ellos mismos todo el proceso, fueron más inclusivos. El algoritmo no se torció, pero su uso hizo que los humanos se torciesen: “El problema fue la interacción máquina-humano”. Quizá los gerentes sintieron menos responsabilidad, o no entendieron la herramienta, o se sintieron amenazados… La socióloga no pudo preguntar, pero extrae varias conclusiones: “Crear una IA sin sesgo es solo el primer paso, su implementación debe ser explicada y monitorizada; si nos limitamos a comprar estas herramientas para ahorrar trabajo, habrá cosas que saldrán mal”. Lo cual no significa que no deba usarse: “No partimos de una situación perfecta que las máquinas puedan arruinar, no es que a los humamos se nos dé genial esto, la discriminación laboral es un problema enorme, la pregunta es si la IA puede mejorarlo o no”.
En otro de los despachos del instituto, Ludvig Beckman, profesor de ciencias políticas, estudia qué efectos puede tener la IA en la democracia. También en su área hay preguntas “muy especulativas” sobre las futuras máquinas superinteligentes; por ejemplo, ¿podrían llegar a votar los robots? El politólogo menea la cabeza, pero concede: “No lo creo, pero la pregunta te fuerza a reconsiderar los límites de la inclusión y las razones por las que pensamos que no pueden votar ciertas personas u otros agentes”, como los niños, las personas con discapacidad mental grave, los animales… ¿Podrían los robots tener entonces derechos? El politólogo duda: “Puede que haya literatura al respecto, las IA tendrían objetivos, no intereses, y aun así me cuesta ver el daño moral implícito en no respetar los intereses de una máquina”, dice Beckman.
Discutido lo que aún estaría por llegar, Beckman prefiere enfocarse en la transparencia y la legitimidad democrática de la toma de decisiones públicas que ya se informan con la ayuda de la IA. “Un asunto más mundano y más a mano”, indica, añadiendo que en Suecia se acaba de publicar una ley que abre el camino para que se usen aún más en diversos procesos burocráticos. “El problema no es que las máquinas tomen malas decisiones, sino que estos sistemas que ya aprenden solos lo hacen con mecanismos que no son transparentes ni siquiera para quien los programa”, dice el experto. Por tanto, aunque las máquinas tomen decisiones públicas eficientes, ¿deberíamos dejar que las tomasen? “La democracia exige que las decisiones sean justificadas ante el pueblo. La gente tiene derecho a saber por qué se le negó un permiso o concedido una subvención. Las leyes surgen de alguien en una posición de autoridad que puede explicar el razonamiento que las sustentan”, apunta el politólogo. Para explicarlo recurre al ejemplo de una calculadora: te fías del resultado, pero la máquina no tiene autoridad sobre ti. Beckman acaba con otro dilema: “Los beneficios de la IA burocrática serían mayores en las democracias más vulnerables, en países donde la corrupción o la ineficiencia lastran muchas decisiones públicas; sin embargo, es también en esos países donde puede haber más propósitos espurios para introducirla”.
Los investigadores sociales coinciden en que la IA es revolucionaria, pero una mera herramienta, y en que, aunque la usamos, todavía no ha cambiado de manera radical nuestras vidas. Parte de la investigación del economista Strimling es predecir qué aplicaciones triunfarán y cuáles se quedarán en el camino. Lo llama “pre-ética”: “Si sabemos qué aplicaciones se extenderán a más velocidad, sabremos qué preguntas éticas debemos responder con más urgencia”. Su conclusión es que no importa tanto la usabilidad o las bondades de una aplicación para su éxito como el modo en que se “propaga”. Y la manera más eficaz es la “infusión”: cuando una innovación se cuela en una herramienta que ya usa todo el mundo. “Un día, Netflix, Google o YouTube introducen IA o aprendizaje profundo en sus sistemas de recomendación y de forma instantánea se mete en los ordenadores de todo el planeta sin que los usuarios se den mucha cuenta”, dice. Un ejemplo reciente: “Sale ChatGPT, los más tecnófilos empiezan a usarlo, puede que el público general trastee un rato con la app, pero el salto se da cuando Microsoft lo adquiere y se introduce en sus motores de búsqueda”. “¿Dónde queda la libertad de elección del usuario?”, se pregunta Strimling, “y, más allá, ¿dónde queda la representación de la diversidad cultural cuando un grupo muy reducido de personas de un entorno muy concreto –mayormente desarrolladores de Silicon Valley– toma decisiones sin consultarnos sobre lo que todos usaremos cotidianamente el día de mañana?”.
El filósofo Jebari insiste en que “no es solo una cuestión tecnológica, sino también política”, sobre todo ante una de las preguntas que más preocupan: ¿Cómo afectará al trabajo? ¿Se usará para liberarnos de lo más tedioso y mejorará nuestra calidad de vida, o servirá para explotarnos aún más? De nuevo, depende. “En muchas empresas, al aumentar la productividad, la herramienta ya ayuda a quitar cargas y conciliar mejor; en otras ocurre lo contrario: el reto no es tecnológico, sino regulador, sindical, político”, concluye el filósofo, mencionando un análisis que realizó con un compañero de los almacenes más robotizados de Amazon: eran más productivos, pero también tenían más accidentes y más estrés e insatisfacción laboral, ya que los trabajadores tuvieron que adaptarse al ritmo frenético de las máquinas.
En una sala diáfana del Instituto para los Estudios del Futuro, el coreógrafo Robin Jonsson conecta a una bailarina a un entorno de realidad virtual donde ella marca el paso entre dos mundos. Es una muestra de uno de sus proyectos de danza y tecnología, Get Real, en el que bailarines y público comparten una onírica pista digital interactuando a través de la máquina. También trabaja con un robot danzante con el que admite que está “bastante frustrado”; los bailarines humanos son más obedientes y le resulta más fácil conseguir de ellos lo que busca que explicárselo al robot en complejos prompts (órdenes) que no siempre entiende. Cualquier ilustrador profesional que haya trasteado con herramientas de IA gráfica sabe a lo que se refiere. Jonsson disfruta explorando los límites de su arte y creando situaciones que “expanden una experiencia que está íntimamente ligada a la presencia, lo físico y la reacción del otro”. Comparada con las artes plásticas o la música, donde la tecnología lleva años siendo parte del proceso, la danza, dice, está en pañales.
Lo que lleva a la última pregunta: ¿podrá la IA sustituir a los creadores? “No lo sé, yo estoy deseando usarla a mi favor, pero no lo creo; sobre todo, las artes escénicas se pueden automatizar solo hasta cierto punto, porque el cuerpo es tan importante; pero incluso pensando en IA con forma de androides realistas, creo que seguirán haciendo falta comisarios humanos. Lo que sí cambiará es cómo trabajan los artistas”. Como coreógrafo, cree que la riqueza vendrá de la fusión entre la IA y los humanos, cada cual aportando sus cualidades. “Mi talento principal es facilitar la socialización, sacar lo mejor de los bailarines, los músicos, los técnicos…, y no veo a una máquina haciendo eso”, dice. Aunque admite que, incluso dentro del arte, quizá la expresión que nos es más propia como especie, la danza es “la última trinchera humana”.
Por Patricia Gosálvez
©EL PAÍS, SL
Otras noticias de Inteligencia artificial
- 1
Detectaron al iceberg más grande del mundo cerca de las islas Georgias del Sur y es monitoreado por Prefectura
- 2
Ya tiene fecha el comienzo del juicio a la enfermera acusada de asesinar a seis bebés
- 3
Hay alerta amarilla por vientos fuertes para este viernes 20 de diciembre: las zonas afectadas
- 4
Vacaciones: seis recomendaciones para poder dormir de verdad en un avión