Una carta abierta firmada por los máximos responsables del desarrollo de motores de inteligencia artificial de OpenAI, Google, Microsoft y otros equipara a la inteligencia artificial con las pandemias y la guerra nuclear
- 3 minutos de lectura'
El texto es breve y contundente: “Mitigar el riesgo de extinción por la Inteligencia Artificial debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear.” Lo publicó, a modo de carta abierta, el Centro para la Seguridad en la Inteligencia Artificial. Y podría ser una declaración más, de tantas que hubo en los últimos tiempos, por el impacto que herramientas como ChatGTP, Bard o Midjourney podrían llegar a tener en la sociedad en el futuro próximo.
En este caso, no obstante, lo que llama la atención es el calibre de quienes firman esta breve carta. Entre ellos está Sam Altman, el CEO de OpenAI, la compañía creadora de GPT y ChatGPT, su cofundador, John Schulman, y su CTO, Mira Murati; su principal competidor, Demis Hassabis, CEO de Google DeepMind (la subsidiaria donde se desarrollan PaLM y Bard, el motor y chatbot de inteligencia artificial de Google); Kevin Scott, el CTO de Microsoft (que es inversora en OpenAI y está incorporando esta herramienta en todos sus productos), acompañado de su oficial científico en jefe, Eric Horvitz; Dario Amodei, el CEO de Anthropic (compañía fundada por ex OpenAI y que está detrás de Claude, otro chatbot), acompañado por Daniela Amodei (su hermana) presidenta de la compañía; al igual que una larga lista de CEOs y presidentes de múltiples compañías focalizadas en la inteligencia artificial, y de los científicos más reconocidos de las universidades más prestigiosas con alguna participación en el mundo de la inteligencia artificial. La lista es una suerte de “Quién es quién” en el panteón estadounidense de la IA, a la que se han ido sumando otras luminarias europeas. La carta está abierta para que otras personas se sumen.
Esta breve declaración, dice el sitio, tiene como objetivo abrir la discusión sobre los riesgos que implica el uso de inteligencia artificial; “también tiene como objetivo crear un conocimiento común del creciente número de expertos y figuras públicas que también toman en serio algunos de los riesgos más graves de la IA avanzada.”
El precedente
La carta abierta sigue los pasos de otra similar publicada a fin de marzo último, donde más de mil personalidades del mundo académico y corporativo relacionado con la inteligencia artificial pidieron hacer una pausa de medio año en el desarrollo de los diferentes sistemas de inteligencia artificial generativa. En esa carta, la figura más visible es la de Elon Musk, un eterno público opositor de estas herramientas (lo que no evita que esté desarrollando una similar).
En el caso de la carta publicada hoy, sorprende la presencia de Sam Altman, el CEO de OpenAI (la compañía detrás de GPT y ChatGPT) y el principal beneficiado por la reciente popularidad de este tipo de herramientas de generación de contenido asistido por computadora. Altman ha tenido, en las últimas semanas, una posición ambivalente: frente al Senado de Estados Unidos pidió regulaciones para el desarrollo de la inteligencia artificial (como figura líder, sería el que tiene más margen de maniobra para acomodarse a reglas nuevas), pero también amenazó con irse del mercado europeo si las reglas eran demasiado estrictas.
LA NACIONOtras noticias de Inteligencia artificial
Más leídas de Tecnología
Como en Austin Powers. Rusia multa a Google por US$ 20.000 quintillones, más que todo el dinero que hay en el mundo
Proyectar confianza. Cuáles son las tres palabras que repiten las personas más seguras, según la inteligencia artificial
Cyber Monday 2024. Tres sitios para comparar precios y encontrar las verdaderas ofertas
Paso a paso. Por qué recomiendan desactivar el Meta IA de WhatsApp: cómo hacerlo