Martín Yeza, diputado nacional de Pro; Estanislao Mezzadri, gerente de legales para Hispanoamérica de Google; y Soledad Guilera, directora del Programa de Inteligencia del CEPE de Di Tella, exploraron cuáles son los límites que deben establecer los gobiernos sobre esta tecnología
- 4 minutos de lectura'
En un contexto de constante evolución y transformación digital -liderado por el uso de la inteligencia artificial (IA)-, la regulación se presenta hoy como uno de los principales desafíos de los gobiernos de todo el mundo. ¿Hasta qué punto es correcto frenar el desarrollo de una herramienta tan disruptiva como revolucionaria para la humanidad? ¿Qué riesgos implicaría no establecer los límites adecuados? ¿Hacia dónde nos dirigimos como sociedad?
Esos fueron algunos de los interrogantes que se debatieron en el marco de un encuentro organizado por el Centro para la Evaluación de Políticas basadas en Evidencia (CEPE) de la Universidad Torcuato Di Tella, del que participó Martín Yeza, diputado nacional de PRO; Estanislao Mezzadri, gerente de legales para Hispanoamérica de Google; y Soledad Guilera, directora del Programa de Inteligencia del CEPE de Di Tella.
Durante el comienzo del panel -moderado por Gastón Gertner, director ejecutivo del CEPE-, Guilera presentó un estudio realizado por los alumnos del curso de IA y Gobierno de la universidad sobre las tendencias regulatorias de la legislación argentina. “Todos los arcos políticos presentaron proyectos en torno a esta temática. Vemos que la Argentina tiene un enfoque incipiente y activo, pero fragmentado. Hay alguna tendencia a medidas punitivas, participación limitada de partes interesadas, sin promover suficientemente los factores habilitantes y puede haber un riesgo a restringir la innovación”, señaló Guilera.
Por este motivo, Guilera sugirió avanzar en un marco “más integral” que contemple los factores habilitantes críticos y fomente el enfoque de derechos y el potencial de la innovación.
Bajo esta línea, Mezzadri opinó que la regulación “no debe concentrarse primariamente en penalizar o atacar posibles riesgos negativos”, sino que su eje debe ser incentivar el potencial de la IA. “Es una tecnología nueva, con grandes beneficios sociales, y es muy importante que los posibles usuarios la puedan aprovechar al máximo”, añadió.
Por su parte, Yeza sostuvo que las herramientas basadas en IA son “criaturas nuevas” incompatibles con el diseño institucional existente. “El marco jurídico, burocrático, formativo intelectual y el campo de la práctica están en total crisis. No van a la misma velocidad ni tienen las mismas pretensiones”, precisó. Y advirtió: “Una no regulación inestable en el tiempo es casi tan mala como una hiperregulación estable”.
En este sentido, destacó tres tipos de modelos que se aplican en el mundo. El primero es el “aceleracionista no regulatorio”, es decir, aquellos países que permiten que la IA avance sin una regulación. Luego se encuentra el “hiperregulacionista” y, por último, el llamado “wait and see”. En este último, indicó Yeza, se encuentra la Argentina.
“Ahí se ubican la mayoría de los países en vías de desarrollo. Esperemos, nadie nos está apurando, no importemos problemas que no tenemos todavía y tratemos de trabajar en las pequeñas cosas, como la privacidad de datos. De las mejores cosas que tiene que resolver la Argentina en el corto plazo es la macroeconomía”, profundizó.
“Es simplemente ir viendo cuáles son las bases jurídicas para que el país pueda pensarse como un desarrollador de esta tecnología y no solamente como consumidor. Regulación sí, pero no a cualquier costo y de cualquier manera. Hay que empezar el recorrido para poder encontrarlo”, agregó Mezzadri.
El valor de la IA para la sociedad
Google sostiene que la IA debe tener enfoque audaz, responsable y colaborativo, así como también siempre respetar y seguir estándares internacionales. En este sentido, Mezzadri hizo referencia a casos de éxito del uso de esta tecnología, como programas capaces de predecir y prevenir inundaciones o, en el caso de la medicina, detectar tumores.
Sin embargo, no pasó por alto que “se trata de una tecnología experimental y presenta riesgos que hay que tenerlos en cuenta”. Sobre estos desafíos, Guilera mencionó la equidad en el acceso a la IA y la reducción de la brecha digital, dos aspectos fundamentales para capacitar a las personas y que no sean desplazadas de sus trabajos. “El Gobierno tiene que estar a la altura de desarrollar políticas que protejan a los trabajadores y que les permitan su reconversión para poder integrarse a una economía cada vez más automatizada”, dijo. Por su parte, Mezzadri sumó la falta de inversión e infraestructura.
“Cada sector de la sociedad tiene un valor para aportar para que exista esta conversación. Tiene que haber un diálogo abierto y multisectorial para entender la complejidad y los posibles impactos de estas tecnologías”, concluyó Guilera.
Otras noticias de FuturIA
Más leídas
Doble crimen en Vicente López. “Es un monstruo que vivía dentro de casa”, el testimonio que hizo llorar al jurado
Tenía 42 años. Quién era Eduardo Vaccaro, el hombre que murió ahogado en los lagos de Palermo
Dato oficial. Cuánto hay que ganar para ser de clase media en Buenos Aires
"No te hagas el chistoso", Fuerte cruce entre Stolbizer y Manuel Adorni por la promesa de Milei de eliminar impuestos