Los creadores de esta tecnología, sus principales inversores y miles de académicos han alertado de peligros extraordinarios en las últimas semanas
- 12 minutos de lectura'
Por si el mundo no tenía ya una variedad de opciones futuras de calamidad total, ahora tenemos otra nueva: la inteligencia artificial. En solo dos meses, miles de expertos han pedido que se pause, se observe y se regule. Primero fueron más de 30.000 personas encabezadas por Elon Musk, cofundador de Tesla, y Steve Wozniak, cofundador de Apple, quienes pidieron en marzo que se detuviera seis meses la investigación en inteligencia artificial (IA). Luego, uno de los padres de estos desarrollos, Geoffrey Hinton, dejó Google para advertir sobre sus posibles tinieblas; poco después, Sam Altman, líder de la empresa que ha creado el producto más exitoso en este campo, ChatGPT, fue al Congreso a decir que “todo puede salir muy mal”, y ahora está de gira por el mundo para, entre otras cosas, advertir de peligros épicos.
Por si este arsenal fuera poco, el martes se publicó otro manifiesto de solo 22 palabras en su original inglés: “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, decía. Firmado por 350 personas, los dos primeros firmantes son precisamente Hinton y Yoshua Bengio, dos galardonados en 2018 con el Premio Turing, el “Nobel” de la informática, por ser “padres” de la revolución de la IA. Otros tres ilustres firmantes son los tres líderes de las principales empresas de IA hoy: Altman, de OpenAI; Demis Hassabis, de DeepMind (propiedad de Google); y Daniel Amodei, de Anthropic.
1. ¿Qué hay que regular?
¿Por qué toda esta grandilocuencia repentina en contra de algo espectral y desconocido aún? Hay varias respuestas, unas más sinceras, otras más cínicas. Primero, es destacable que haya uno de los tres padres de la IA que no firmara. Junto a Hinton y Bengio, también obtuvo en 2018 el Premio Turing el francés Yann LeCun, que lleva varios días explicando en Twitter por qué no está en el bando del temor existencial: su hipótesis es que es difícil regular algo que no sabemos cómo será, dice.
“La IA superhumana no está ni cerca de la parte alta en la lista de riesgos existenciales. En gran medida porque aún no existe. Hasta que tengamos un diseño básico para la IA nivel perro (por no hablar de nivel humano), discutir cómo hacerla segura es prematuro”, escribió en Twitter. En una charla reciente, LeCun usó esta metáfora: “¿Cómo puedes diseñar cinturones para un coche si el coche no existe aún?”
Esa ignorancia sobre el futuro no es algo que solo piense LeCun. El propio Altman cree que para que haya un salto real en la capacidad de la IA, deben ocurrir cosas de las que no se tiene ni idea: “Un sistema que no puede aportar a la suma del conocimiento científico, descubrir nueva ciencia fundamental, no es una superinteligencia. Y para hacerlo bien, tendremos que expandir el modelo GPT de maneras bastante importantes para las que todavía nos faltan ideas. No sé cuáles son esas ideas. Estamos tratando de encontrarlas”, dijo en una entrevista reciente.
Esta grandilocuencia existencial otorga a la IA una capacidad que aún no sabemos si tiene.
2. Por qué más manifiestos
Si hubo un manifiesto en marzo, ¿por qué necesitamos otro? La diferencia del manifiesto breve de esta semana es claramente que este último lo firman los líderes de la industria. Altman (OpenAi), Hassabis (Google), Amodei (Anthropic) y Hinton (ex Google) no firmaron el primero, que pedía una moratoria en el desarrollo de estos programas: evidentemente, estas compañías no quieren pausar la investigación. El resto de los firmantes lo forman una pequeña parte de los que ya apoyaron el manifiesto original de marzo, que ya son más de 31.000 personas, principalmente académicos. Sus promotores, del Future of Life Institute, mandaron un correo electrónico el 19 de mayo a sus firmantes para que de nuevo se “unieran a Hinton, Bengio y Amodei” porque es “esencial normalizar y legitimar el debate sobre los riesgos más graves de la IA”.
3. ¿Una cortina de humo?
Unos días antes del manifiesto breve, Altman publicó junto a otros dos dirigentes de OpenAI un artículo titulado Gobernanza de la superinteligencia. Allí pedían despreocuparse de los modelos actuales para centrarse en legislar sobre el peligro futuro: “Los sistemas de hoy crearán un enorme valor en el mundo y, si bien tienen riesgos, el nivel de esos riesgos es acorde con otras tecnologías de internet. Al contrario, los sistemas que nos preocupan tendrán un poder más allá de cualquier tecnología creada hasta ahora”.
En Londres, durante su gira europea, Altman dijo que se plantearían retirar ChatGPT del continente si la Unión Europea avanza en su “sobrerregulación”, que debatirán en un pleno del Parlamento el día 13. Una opción legislativa es la de obligar a las empresas con modelos como ChatGPT a revelar los datos con copyright en el corpus con el que entrenan sus máquinas, un escenario conflictivo. Días después, el líder de OpenAI tuiteó que ya no se planteaban abandonar Europa. Ahora, incluso parece que buscan sede europea, según se ha publicado.
Así, una posible explicación tras los manifiestos es que empresas como OpenAI prefieren que los políticos debatan sobre apocalípticos riesgos existenciales futuros, en lugar de centrarse en leyes que puedan complicar su expansión hoy.
Con estas amenazas, Altman se asegura también ser consultado cuando llegue el momento de proponer leyes. Si los legisladores ven estos modelos como algo incomprensible, requerirán de la ayuda de los “expertos” dentro de las empresas para regular, dice Jake Browning, investigador de la Universidad de Nueva York sobre la filosofía de la IA y que no ha firmado el manifiesto. Precisamente, la comisaria europea de Competencia, Margrethe Vestager, hizo pública esta semana sus reuniones con Altman y Amodei justo después de anunciar su inminente propuesta de “código de conducta voluntario”. Un día después, se reunió con la presidenta de la Comisión, Ursula von der Leyen.
Bruselas está más enfocada al aquí y ahora: “La UE es una amenaza [para estas empresas] porque ignora la exageración de la IA y solo observa las consecuencias, tratando estos nuevos modelos como servicios”, dice Browning. Y se pregunta: “¿Es fiable la información proporcionada por GPT? ¿Cumplen las normas de privacidad existentes, como el derecho al olvido? ¿Respetan los derechos de autor? ¿La búsqueda de IA de Google conducirá a monopolios? ¿Las empresas comercializan estos productos con honestidad? En todas esas métricas, estos modelos de lenguaje salen mal: son propensos a alucinar; entrenan y reproducen datos privados; no respetan las leyes de derechos de autor; están diseñados para afianzar el poder de las grandes tecnologías y aumentar sus ingresos publicitarios, y se comercializan de manera engañosa sin la debida advertencia sobre sus limitaciones”.
4. El cuento del fin del mundo
El fin del mundo es un debate que genera gran interés en Silicon Valley. El propio Altman ha dicho que debemos pensar más en la extinción de los humanos. Pero los críticos con estos manifiestos exagerados creen que entre las prioridades de sus célebres firmantes no está la de beneficiar a la humanidad. Timnit Gebru, experta en ética computacional de la Universidad de Stanford, alertó antes de esta explosión de los sesgos y peligros de estos modelos. No solo no le hicieron caso, sino que Google la despidió.
Hoy Gebru sigue viendo solo hipocresía en este debate sobre la impredecible superinteligencia del futuro: “Esto es un movimiento que lleva décadas en construcción, con los mismos financiadores multimillonarios de OpenAI, Deepmind y ahora Anthropic. Su padre ideológico, Nick Bostrom [autor del best seller Superinteligencia], habla de ‘presiones disgénicas’, que es que aquellos considerados estúpidos se reproduzcan demasiado, lo que sería un riesgo existencial para la humanidad, y dijo que ‘los negros son más estúpidos que los blancos’ y nos insultó. ¿Quieren que creamos que son ellos los que se preocupan por la humanidad? ¿Dónde estaban cuando nosotras creamos conciencia sobre los daños reales y nos enfrentamos a una reacción violenta? Es casi como un ataque informático coordinado para que nos distraigamos de responsabilizar a las verdaderas organizaciones que causan daño”.
Émile Torres, de la Universidad Leibniz de Hannover, lleva años estudiando estas teorías de la aniquilación futura: “Se pone mucho el foco en la IA, pero no tanto en las empresas de IA. Esta atención da a las compañías una especie de vía libre. Redirige la mirada de lo que están haciendo a esta especie de mente misteriosa y extraterrestre que surgirá por algún tipo de ley del progreso tecnológico”. Y añade: “Esta visión utópica fue inventada por un puñado de tipos blancos ricos superprivilegiados y ahora tratan de imponerla al resto del mundo”. Para ellos, también llamados transhumanistas, sería necesario un cerebro más privilegiado que el humano para sobrevivir, es decir, el digital.
5. ¿Y si es verdad?
Junto a estas posibles razones, no hay que obviar el motivo más explícito para apoyar estos manifiestos: creer de verdad que la inteligencia artificial supone un peligro existencial. Que los firmantes, aunque un buen puñado tenga intereses económicos obvios, temen sinceramente un fin del mundo provocado por una IA mal gestionada.
Hay miles de investigadores de docenas de disciplinas, sin vínculos con la industria, que creen que hay que pausar la investigación y vigilar sus riesgos existenciales. EL PAÍS ha preguntado sus motivos a 10 académicos firmantes de ámbitos dispares, desde la física y la informática al derecho, la economía o la psicología. Sus respuestas pueden englobarse en cuatro puntos:
a) La rapidez del desarrollo. Para quien no estuviera dentro del sector de la IA, la velocidad de la innovación es inconcebible. Es quizá el temor básico: “No hace tanto, el peligro de que las máquinas representaran un riesgo de extinción parecía fantasioso”, señala Andrew Briggs, catedrático emérito de Nanomateriales de la Universidad de Oxford. “El ritmo del progreso en la IA ahora acelera tan rápido, como lo muestran motores como ChatGPT, que se ha vuelto urgente buscar medidas de seguridad antes de que sea tarde”, añade.
La velocidad puede traer problemas imprevistos, como dice Juan Pavón, catedrático de Ingeniería del Software e IA de la Universidad Complutense: “Se está avanzando más rápido en el desarrollo de grandes modelos de IA que en su comprensión, y como se trata de sistemas complejos, con multitud de interacciones entre los elementos que los componen, pueden producirse efectos no deseados e imprevistos”, dice.
b) Ignorancia sobre cómo funcionan. El desconocimiento es otro factor que preocupa a los firmantes. “Los programas de IA como GPT4 y sus probables sucesores son sistemas extremadamente complejos, y realmente no los entendemos”, asegura Alessandro Saffiotti, catedrático de Ciencias de la Computación de la Universidad de Örebro (Suecia). “Aun así, podríamos terminar delegándoles decisiones críticas para el planeta y nuestra sociedad: centrales eléctricas, transacciones financieras o incluso sistemas militares. Si las empresas no hacen una pausa en el despliegue de esos sistemas hasta que los entendamos mejor, debemos ir preparándonos para posibles escenarios desastrosos”.
“Se trata de ‘lo que no sabemos que no sabemos’, es decir, el potencial de problemas graves que pueden surgir de una manera imprevista”, advierte Henning Grosse Ruse-Khan, profesor de Derecho de la Universidad de Cambridge. Y apunta: “El potencial de la IA es tan significativo que no tenemos una manera realista de predecir, ni siquiera adivinar, sus consecuencias”.
c) La duda obliga a la prudencia. La frase de 22 palabras del último manifiesto es fácil de asumir por mero análisis de riesgos. El texto viene a decir: si tienes una pistola cargada con 3 balas en un cargador de 100, ¿dispararías? Aunque no sepamos si esa pistola existe, la respuesta natural es intentar sacar esas 3 balas del cargador. “Es importante hablarlo debido a la gran incertidumbre que hay”, dice Edoardo Gallo, profesor de Economía de la Universidad de Cambridge. “Tenemos muy poca idea de las probabilidades. Estoy bastante seguro de que el riesgo de extinción de la IA en los próximos 100 años es muy pequeño, pero también estoy bastante seguro de que no es cero”, añade.
Al final, el debate se reduce a una apuesta. Browning, que no firmó, está cómodo negando todos los riesgos. “Si crees que el lenguaje es el núcleo de la inteligencia, puedes inclinarte a pensar que una máquina parlante así está a un paso de distancia de la inteligencia superhumana”, explica. Pero él no cree que sea así: “Filosóficamente, no creo que la superinteligencia tenga sentido como concepto; técnicamente, no creo que nada que suceda bajo la etiqueta de ‘IA’, sin importar cómo de amplia sea, represente una amenaza existencial”.
En esa duda, Bojan Arbutina, profesor de Astrofísica de la Universidad de Belgrado, prefiere equivocarse por exceso: “Puede que la amenaza sea exagerada, pero si no lo es, no tendremos tiempo de reconsiderarlo, y por tanto, creo que debe tomarse en serio. No podemos comprender todos los riesgos. La superinteligencia podría, por ejemplo, percibirnos a los humanos como nosotros vemos a los insectos o incluso a las bacterias”, afirma.
d) Hay muchos otros problemas. Pero no hay que ir tan lejos, dice Helena Matute, catedrática de Psicología de Deusto, que pide que “no se mezcle el riesgo existencial con la discusión sobre la consciencia y la inteligencia, no tiene nada que ver”. Para Matute, el número de desafíos de la humanidad no debe ser una excusa para no fijarnos en la IA: “Limitar la discusión solo a los riesgos que algunos consideran ya obvios es ir por detrás del problema. Hay que llegar pronto a acuerdos mundiales que minimicen los riesgos de la IA, todos los riesgos. No entiendo por qué algunos creen tener una especie de venia para decir: ‘Esto se puede regular, pero esto no”.
Estos expertos también incluyen la regulación inmediata y actual, que otras partes con intereses económicos pueden despreciar: “Mi objetivo, al destacar las amenazas existenciales de la IA, es exactamente lo contrario de tratar de descartar los daños a corto plazo”, dice Michael Osborne, profesor de IA en la Universidad de Oxford. Y asegura: “En cambio, deseo enfatizar que no estamos haciendo lo suficiente para gobernar la IA, una tecnología que hoy en día está estrictamente controlada por un pequeño número de empresas tecnológicas opacas y poderosas”.
EL PAISOtras noticias de Inteligencia artificial
Más leídas de Tecnología
Clave. Los trucos de WhatsApp más simples y prácticos que son fáciles de aplicar
Infancias. Cómo activar el "modo Peter Pan" en WhatsApp
Similares a los Ray-ban de Meta. Samsung tendrá su línea de anteojos inteligentes en 2025
Cuidado. Qué significa quitar la foto de perfil en WhatsApp, según un psicólogo