El objetivo es regular la tecnología “superinteligente” y sus potenciales riesgos
- 5 minutos de lectura'
PARIS.– De Brasil a Nigeria, pasando por Europa y Asia, Sam Altman, jefe de OpenAI y creador de ChatGPT, está recorriendo el mundo para tranquilizar sobre los riesgos de la inteligencia artificial y advertir acerca de proyectos de regulación quizá demasiado restrictivos.
Dieciséis ciudades, cinco continentes, reuniones cara a cara con jefes de Estado, conferencias en universidades e incluso una aparición en la reunión que el grupo Bilderberg, el discreto club de dirigentes políticos y económicos mundiales, celebró en Lisboa la semana pasada. Ese es el impresionante cartel del “OpenAI Tour”, como lo denominó la empresa californiana.
Done safely and securely, AI has the potential to be transformational and grow the economy.
— Rishi Sunak (@RishiSunak) May 24, 2023
This evening I met with @sama, @demishassabis and @AnthropicAI's Dario Amodei to discuss how the UK can provide international leadership on AI. pic.twitter.com/8x8NfCbCbG
La gira ilustra el estatus de gurú mundial de la inteligencia artificial que se ha granjeado Sam Altman, de 38 años, a raíz del fulgurante éxito de su robot conversacional ChatGPT.
Pero ahora debe responder a los temores que éste provoca: desinformación, manipulación de elecciones, destrucción masiva de empleos, robo a creadores e, incluso, amenaza global para la humanidad.
La necesidad de respuestas apremia, pues Europa y Estados Unidos están estudiando regular el sector, numerosas personalidades pidieron en marzo una pausa en la investigación e Italia suspendió ChatGPT tres semanas por uso no consentido de datos personales.
Los propios responsables de OpenAI han pedido que se regule la tecnología “superinteligente”, afirmando que “será más poderosa que otras tecnologías a las que la humanidad ha tenido que enfrentarse en el pasado”.
Para regular los riesgos de los sistemas de IA, debería existir un organismo de control internacional, similar al Organismo Internacional de la Energía Atómica (OIEA), la organización que promueve el uso pacífico de la energía nuclear, escribieron los fundadores de OpenAI, Greg Brockman e Ilya Sutskever, y su director ejecutivo, Sam Altman, en una nota publicada el lunes en el sitio web de la empresa.
something like an IAEA for advanced AI is worth considering, and the shape of the tech may make it feasible:https://t.co/YbbIPOO1p9
— Sam Altman (@sama) May 22, 2023
(and to make this harder to willfully misinterpret: it's important that any such regulation not constrain AI below a high capability threshold)
“Ante la posibilidad de un riesgo existencial, no podemos limitarnos a reaccionar”, apuntaron.
Altman ya había comparecido ante el Congreso el 16 de mayo para implorar a los legisladores que regulen la inteligencia artificial. Los líderes del Congreso compartieron sus preocupaciones sobre las amenazas que podría plantear la IA, incluida la propagación de información errónea y las violaciones de la privacidad.
“Si esta tecnología falla, puede llegar a ser muy problemática. Y queremos ser claros al respecto”, dijo Altman en su testimonio ante los miembros de un subcomité del Senado.
En marzo, más de 1000 líderes tecnológicos e investigadores, entre ellos Elon Musk, director ejecutivo de Tesla y propietario de Twitter, pidieron una moratoria en el desarrollo de los sistemas de IA más avanzados, advirtiendo en una carta abierta que las herramientas presentaban “profundos riesgos para la sociedad y la humanidad”.
En su última nota, los líderes de OpenAI afirmaban que “es concebible que en los próximos 10 años los sistemas de IA superen el nivel de destreza de los expertos en la mayoría de los dominios y lleven a cabo tanta actividad productiva como una de las mayores corporaciones actuales”.
Las últimas herramientas de inteligencia artificial podrían dar un vuelco a la economía de Internet, convirtiendo a los gigantes tecnológicos actuales en meras comparsas y creando las próximas potencias del sector.
Las empresas tecnológicas han gastado miles de millones de dólares en IA, en medio de la creciente preocupación por su potencial para igualar el razonamiento humano y destruir puestos de trabajo. Goldman Sachs estimó recientemente que la IA podría reducir 300 millones de puestos de trabajo a tiempo completo a la automatización.
BuzzFeed acaba de presentar un chatbot que ofrece recomendaciones de recetas.
OpenAI Tour
El sábado, los países del G7 decidieron crear un grupo de trabajo y, en Bruselas, el comisario europeo Thierry Breton sugirió poner en marcha rápidamente un pacto sobre la inteligencia artificial (IA). Sam Altman explicó en Twitter que preveía reunirse con usuarios y reguladores durante su gira.
El directivo viajó a Rio de Janeiro, y luego fue a Lagos (Nigeria) y a Lisboa. Esta semana, visitó Madrid, Londres, París, Varsovia y Múnich. Sus próximas paradas serán Tel Aviv, Dubái, Nueva Delhi, Singapur, Yakarta, Seúl, Tokio y Melbourne.
Developing talents and technologies in France, acting for regulation at the French, European and global levels, these are our priorities in terms of artificial intelligence. We discussed this with Sam Altman, the creator of ChatGPT. pic.twitter.com/GES0hWv9SY
— Emmanuel Macron (@EmmanuelMacron) May 23, 2023
Por las ciudades por donde pasa, Altman repite su discurso, que mezcla optimismo y advertencia, para tratar de convencer de que la IA no escapará al control humano.
“En [el grupo] Bilderberg, daba un poco de miedo”, comentó un participante. “También prometió estar buscando un país en el que implantar su sede europea”, agregó.
En París, Varsovia y Madrid fue recibido como si de un jefe de Estado se tratara, reuniéndose respectivamente con el presidente francés Emmanuel Macron y con los jefes de gobierno polaco y español Mateusz Morawiecki y Pedro Sánchez, todos ellos deseosos de aprovechar esta oportunidad económica, aunque recordando la necesidad de establecer un control.
Me he reunido con Sam Altman @sama, cofundador de @OpenAI, con quien he compartido que la Inteligencia Artificial es una enorme oportunidad para modernizar nuestras sociedades.
— Pedro Sánchez (@sanchezcastejon) May 22, 2023
Pero es imprescindible que su desarrollo respete los derechos y los valores democráticos. pic.twitter.com/o2jBlNMYRt
En una universidad de Nigeria, Altman prometió un florecimiento de las empresas emergentes e intentó intentó redorar la imagen de OpenAI, que recurrió a trabajadores africanos baratos para entrenar el modelo de lenguaje de la aplicación.
En Rio, en el Museo del Mañana, defendió la necesidad de regular, pero insistió en que espera que ChatGPT dé lugar a “un avance científico real” y que “mejore la vida de la gente”. De manos del alcalde de Rio de Janeiro, Eduardo Paes, que se mostró entusiasta, recibió simbólicamente las llaves de al ciudad.
En Londres, sin embargo, su llegada generó menos consenso. En el University College se formó una fila de alumnos deseosos de escucharle, pero también una protesta con un puñado de participantes. “No deberíamos permitir que multimillonarios de Silicon Valley con complejo de mesías decidan lo que queremos”, declaró un estudiante.
En tanto, Sam Altman advirtió que OpenAI podría “dejar de operar” en la Unión Europea si el futuro reglamento le imponía demasiados límites. “Intentaremos [adaptarnos a él] pero hay límites técnicos de lo que es posible”, declaró a Time Magazine, explicando que tenía “muchas” críticas al proyecto de normativa europea.
Con información de AFP y The New York Times
LA NACIONOtras noticias de Inteligencia artificial
Más leídas de El Mundo
Nueva fase. El juego político en las potencias mundiales que explica la última escalada en la guerra de Ucrania
Tensión en Ucrania. EE.UU. y países europeos cierran sus embajadas en Kiev ante el riesgo de un “ataque aéreo significativo” de Rusia
Desregulación y ajuste. El abrupto giro a la derecha de Nueva Zelanda tras tener uno de los gobiernos más progresistas del mundo
1000 días de guerra. Ucrania, agotada: “Quizás vale la pena decir de acuerdo, tomen esta parte, pero déjennos en paz”