Google, OpenAI, Microsoft y Anthropic crearon el Frontier Model Forum, una organización que reúne a los desarrolladores de inteligencia artificial generativa en un intento por autorregularse, antes de limitarse a esperar las decisiones gubernamentales
- 5 minutos de lectura'
Frontier Model Forum es el nombre de una organización que acaba de crearse para reunir a los desarrolladores de inteligencia artificial generativa en un intento por autorregularse, antes de limitarse a esperar las decisiones gubernamentales. Sus miembros fundadores son Google, OpenAI, Microsoft y Anthropic y, según anunciaron, el grupo se centrará en la investigación sobre seguridad, así como en la identificación de mejores prácticas, políticas públicas y casos de uso de esta tecnología para que sea capaz de beneficiar a la sociedad.
El Foro ofrece su afiliación a organizaciones y en su declaración presenta cuáles serán sus tres objetivos principales: identificar las mejores prácticas para mitigar los riesgos potenciales de la IA generativa, incluida la confianza en resultados erróneos, la creación de información diseñada para lograr fines ilegales o perjudiciales, y más. La segunda meta es coordinar la investigación científica sobre medidas de seguridad para la IA, y, en tercer término, promoverá la comunicación entre empresas y gobiernos para reforzar la seguridad y el desarrollo.
De manera independiente, cada una de estas firmas ya había lanzado iniciativas alrededor de los ejes sobre los que ahora gira el foro. Por ejemplo, desde Google explican que en el marco del Foro Económico Mundial 2023, la empresa compartió la evaluación de sus progresos en 2022 en Inteligencia Artificial (IA) y puso de manifiesto la importancia de seguir los principios para construir la IA con equidad, seguridad, privacidad y responsabilidad. Por otra parte, destacó que definir y minimizar los riesgos de esta tecnología es una necesidad en 2023. “Dado que la inteligencia artificial generativa desempeña un papel cada vez más relevante en la economía y la sociedad, se debe avanzar en prácticas responsables y la colaboración entre compañías, reguladores y la sociedad para maximizar sus beneficios”, informan desde la empresa.
Opiniones a favor y en contra
Todos los entrevistados coinciden en que la inteligencia artificial generativa debe ser regulada. De todos modos, cada uno tiene una postura peculiar. Por caso, si bien IBM no pertenece a esta organización, Román Zambrano, de IBM Argentina, explica que le parece positiva su creación: “Todos los ámbitos son válidos para pensar en la ética de la inteligencia artificial generativa, y lo importante es que todos los proveedores llevemos el mensaje y estemos activos en cuestiones vinculadas a la ética y a la regulación. En tal sentido, IBM fue uno de los primeros proveedores en firmar el llamado del Vaticano para la ética de la IA a principios de 2020, y trabajamos con estándares de datos GDPR”.
Según el experto, hay que trabajar en un consenso entre proveedores, clientes y gobierno para regular la IAG. “Poder establecer parámetros para que las cosas sean auditables es muy importante, así como también creo que las regulaciones deben ser implementables y que no limiten el uso de las soluciones”. Por su parte, Emiliano Dato, que se desempeña como Practice Director ARS & Digital del proveedor de IT Softtek para la región de Sudamérica, completa la idea: “Definitivamente, sí, ya que tiene un doble componente: por un lado, un gran potencial y, por el otro, un impacto incierto, por lo cual requiere de un estudio y seguimiento dedicado del tema. En tal sentido, siempre la creación de espacios de debate colaborativos relacionados con la promoción de uso y generación de inteligencia artificial son iniciativas valiosas para compartir ideas, inquietudes y acelerar su adopción”.
Desde el punto de vista jurídico, Fulvio Santarelli, que es Decano de la Facultad de Derecho de la Universidad de Palermo indica que esta tecnología se tiene que regular porque tiene la potencialidad de causar daños a terceros. “Dado que difícil regularla desde las consecuencias, lo mejor es hacerlo desde su origen, tal como sucede con los medicamentos: se controla desde el inicio mediante proceso de aprobación, prueba y lanzamiento en el mercado para no dejar nada librado al azar. En tal sentido, la inteligencia artificial requeriría de algo similar”, indica.
Respecto al papel del Frontier Model Forum, Santarelli cree que más que nada, “sirve para compartir las buenas prácticas y para amortiguar las eventuales consecuencias nocivas. Sin embargo, no es suficiente porque falta la pata reguladora del estado, que debe participar y controlar”.
Dado que los estados siempre demoran en regular estas cuestiones, el decano explica que, detrás de la intención de buena voluntad hacia la regulación, está claro que las empresas tienen otros intereses: “También quieren ganarle de mano a los estados para que, cuándo ellos trabajen en la regulación, deban invitar al Forum a mesa de la discusión”.
Respecto al Frontier Model Forum hay miradas aún más recelosas. Por ejemplo, Rodrigo Ramele, que es profesor e investigador del ITBA dentro del campo de inteligencia artificial, señala que, por un lado, la inteligencia artificial generativa debe ser regulada como cualquier otra tecnología. “Hubiera sido fantástico la regulación de las redes sociales en cuanto aparecieron estas plataformas para evitar episodios como los de Facebook como Cambridge Analytica”, ejemplifica.
Concretamente hablando sobre la regulación de la inteligencia artificial generativa, Ramele indica que ya hay ciertos estándares planteados con criterio, así como materiales para establecer futuros lineamientos. “En tal sentido, las organizaciones idóneas para esto son las instituciones científicas, como el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) o la Organización de las Naciones Unidos (ONU), por mencionar dos, entre tantos otros, pero de ninguna manera considero que deba ser algo regulado por sus propios creadores como la iniciativa Frontier Model Forum. De hecho, este tipo de foro me parece más bien una cuestión estratégica vinculada al negocio, y con el objetivo de que ninguna otra empresa pueda alcanzar el mismo nivel de desarrollo que esos fundados ya alcanzaron”, sentencia.
Al momento de las conclusiones, y más allá de las diferencias, hay un factor común que se presenta con fuerza, y sintetiza Santarelli: “Los estados deben mirar la IA no solo desde la regulación, sino también desde las consecuencias vinculadas con el derecho a la competencia, porque lo peor que puede pasar es que haya un monopolio vinculado a esta tecnología”.