Investigadores de stanford publican informe sobre transparencia de la ia, instan a empresas a revelar más datos
Por Anna Tong
18 oct (Reuters) - Investigadores de la Universidad de Stanford publicaron el miércoles un informe que mide la transparencia de los modelos fundacionales de inteligencia artificial de empresas como OpenAI y Google, y los autores instaron a las empresas a revelar más información, como los datos y la mano de obra humana utilizados para entrenar los modelos.
"En los últimos tres años ha quedado claro que la transparencia está disminuyendo, mientras que la capacidad se está disparando", afirma Percy Liang, profesor de Stanford e investigador del Índice de Transparencia de Modelos de Fundacionales.
"Consideramos que esto es muy problemático porque hemos visto en otras áreas, como las redes sociales, que cuando la transparencia disminuye, pueden ocurrir cosas malas", señaló.
Los modelos fundacionales son sistemas de IA entrenados en conjuntos de datos masivos que pueden realizar diversas tareas, desde escribir hasta codificar. Las empresas que desarrollan modelos fundacionales están impulsando el auge de la IA generativa, que desde el lanzamiento de ChatGPT, el exitoso producto de OpenAI respaldado por Microsoft, ha cautivado a empresas de todos los tamaños.
En un mundo que confía cada vez más en estos modelos para la toma de decisiones y la automatización, es crucial comprender sus limitaciones y sesgos, afirman los autores del informe.
El índice calificó 10 modelos populares en 100 indicadores de transparencia diferentes, como los datos de formación y la cantidad de cálculo utilizado. Todos los modelos obtuvieron puntuaciones "poco impresionantes": incluso el modelo más transparente, Llama 2 de Meta, obtuvo una puntuación de 53 sobre 100. El modelo Titán de Amazon obtuvo la puntuación más baja, 11 sobre 100. El modelo GPT-4 de OpenAI recibió una puntuación de 47 sobre 100.
Los autores del índice esperan que el informe anime a las empresas a aumentar la transparencia de sus modelos fundacionales y sirva también de punto de partida para los gobiernos que se plantean cómo regular este campo en auge.
El índice es un proyecto del Centro de Investigación sobre Modelos Fundacionales del Stanford Institute for Human-Centered Artificial Intelligence. (Reporte de Anna Tong en San Francisco; Editado en español por Juana Casas)