OpenAI ha comenzado a entrenar su próximo modelo de Inteligencia Artificial (IA), con el que anticipa llegar al "siguiente nivel de capacidades" para avanzar hacia la Inteligencia Artificial General (AGI) y, ante este adelanto, ha anunciado la creación de un nuevo Comité de Seguridad, con el que hará recomendaciones sobre decisiones críticas de seguridad para proyectos y operaciones de la compañía.
La tecnológica lanzó durante este mes de mayo su último modelo actualizado de IA GPT-4o, que es más rápido y capaz que las versiones anteriores, ya que ofrece respuestas en un promedio de 320 milisegundos (similar al tiempo de respuesta humana), además de aceptar cualquier combinación de texto, audio e imagen.
Sin embargo, la compañía liderada por Sam Altman continúa avanzando en el desarrollo de sus modelos de IA y, aunque su intención es seguir lanzando modelos "líderes en la industria", tanto a nivel de capacidades como de seguridad, también han señalado que es necesario fomentar "un debate sólido en este momento importante", con respecto a los últimos avances de la compañía.
En este marco, OpenAI ha compartido que "recientemente" ha comenzado a entrenar su próximo modelo de IA, al que se ha referido como el "próximo modelo de frontera" y que se prevé que será el sucesor a GPT-4, con el que ha asegurado que dispondrán de la tecnología para avanzar al "siguiente nivel de capacidades" en el camino hacia la AGI.
Frente a esta innovación, la tecnológica ha anunciado la creación de un nuevo Comité de Seguridad, que se encargará de evaluar y desarrollar los procesos y salvaguardas de la compañía para, tras ello, hacer recomendaciones a la Junta sobre "decisiones críticas de seguridad" relacionadas con los proyectos y operaciones de OpenAI.
Así lo ha compartido OpenAI en un comunicado en su web, en el que ha detallado que el Comité de Seguridad está dirigido por los expertos en tecnología de IA, Bret Taylor, Adam D'Angelo y Nicole Seligman, además de por el CEO de la tecnológica, Sam Altman.
En concreto, durante los próximos 90 días, el Comité de Seguridad evaluará y desarrollará "aún más" los procesos y salvaguardas que dispone actualmente OpenAI. Tras este periodo, debatirá sus recomendaciones con la Junta de OpenAI y, después, compartirá públicamente una actualización sobre las recomendaciones adoptadas.
Todo ello bajo el objetivo de OpenAI de hacer más consistentes las medidas de seguridad para las nuevas tecnologías de la compañía. De esta forma, la compañía ha subrayado que el Comité también contará con expertos técnicos y de seguridad para respaldar este trabajo, incluidos los exfuncionarios de ciberseguridad, Rob Joyce y John Carling.