La peligrosa carrera por el desarrollo de la IA no tiene pausa ni límites
Aun la propia industria señala los graves riesgos que plantea la inteligencia artificial, que incluyen el afianzamiento de las desigualdades, la manipulación y la desinformación
- 7 minutos de lectura'
“Yo te avisé y vos no me escuchaste”, refiere uno de los grandes éxitos de Los Fabulosos Cadillacs. La canción alude a aquellos casos en que somos advertidos sobre alguna situación o circunstancia que “se nos viene encima” pero que decidimos ignorar mirando para otro lado o, simplemente, no prestando atención, bajo la premisa “siga el baile”, otro clásico, pero por el gran Alberto Castillo.
La idea de advertir y no ser escuchados reconoce antecedentes milenarios. La prédica desierta supone la previa intención de advertir sobre situaciones puntuales a quien no atiende razones, no le interesa atenderlas o es incapaz de entender lo que se le está explicando.
Este supuesto de anunciación desierta ha adquirido plena vigencia en la actualidad con el advenimiento de la inteligencia artificial generativa (IAG) y el ChatGPT (de la empresa OpenAI), en sus distintas versiones, junto a similares proyectos desarrollados, entre otros, por Google (Gemini) y Apple (Apple Intelligence), que recientemente anunció un acuerdo con OpenAI para usar su tecnología en los productos de la manzana. La realidad demuestra que la carrera de la industria tecnológica por el desarrollo de sistemas de inteligencia artificial no tiene pausa ni límites, aunque nadie sepa (ni sus mismos desarrolladores) cómo termina la película: lo relevante es tener algún papel estelar.
En mayo, 5 exempleados de OpenAI y 6 trabajadores (anónimos) hicieron pública una carta donde destacaron los graves riesgos que plantea esta tecnología, que van desde el afianzamiento de las desigualdades existentes, la manipulación y desinformación, hasta la pérdida del control de los sistemas autónomos que podrían resultar en la extinción de la raza humana. En la carta se menciona, entre otras cosas, que las empresas que desarrollan sistemas de inteligencia artificial poseen información no pública sobre las capacidades y limitaciones de los sistemas en desarrollo, la adecuación de sus medidas de protección y los niveles de riesgo comprometidos, destacando que muchos de esos riesgos no están regulados, como que tampoco existe una supervisión gubernamental efectiva sobre los jugadores del sector.
La carta requiere que las empresas en cuestión se comprometan con distintos principios que permitan a sus empleados hacer públicas, a la sociedad civil, sus preocupaciones sobre los riesgos existentes, sin quedar alcanzados por los acuerdos de confidencialidad que les impiden dar luz verde a sus opiniones, poniendo en juego sus puestos de trabajo.
Similares advertencias –aun más preocupantes– han sido formuladas antes, aunque parece que todos estuviésemos pasando por una etapa de sordera. En marzo de 2023, Elon Musk, junto a miles de expertos y académicos, solicitaron públicamente poner una pausa de 6 meses al entrenamiento y desarrollo de los sistemas de inteligencia artificial, mientras que en mayo del mismo año, 350 personalidades de la academia y de la industria suscribieron un manifiesto donde pedían “mitigar el riesgo de extinción” de la raza humana.
Es evidente que estamos en presencia de un riesgo tangible que se traduce en el desarrollo de máquinas alimentadas de inteligencia artificial, sin control, que puedan llegar a tomar decisiones equivocadas (o sesgadas) con alto impacto poblacional que no solo comprometa la seguridad de la ciudadanía sino otros tantos aspectos, como la educación.
A todo eso se sumó que, en marzo, la Agencia Española de Protección de Datos ordenó a Tools for Humanity Corporation que ponga fin a la recolección y el tratamiento de datos personales que realizaba en territorio español en el marco de su proyecto Worldcoin. Recordemos que el proyecto Worldcoin, que ha operado (y seguiría operando) en la Argentina, escaneaba el iris de voluntarios a cambio de una compensación económica en criptomonedas, lo que ha permitido a dicha empresa acceder a datos personales biométricos que podrían usarse para rastrear personas y suplantar identidad en sistemas de autenticación que requieren reconocimiento de iris, tales como instalaciones, aplicaciones y/o dispositivos personales. ¿Sería utilizada la información biométrica para alimentar IAG? No cabe duda de que la respuesta es afirmativa.
Por otro lado, Meta, empresa dueña de las redes sociales Facebook e Instagram, anunció que a partir del 26 de junio usaría contenido compartido por sus usuarios –publicaciones, fotografías y videos– para entrenar sus modelos de IAG, salvo que estos se opongan en forma expresa.
Unos días antes de la fecha indicada, dicha compañía refirió que suspendería, por un tiempo, el mencionado proyecto en Europa, como consecuencia de la intervención de la Comisión de Protección de Datos de Irlanda (DPC) ante distintos reclamos formulados por el grupo activista Centro Europeo de Derechos Digitales (NOYB). No podemos afirmar que dicha suspensión también operará fuera de territorio europeo. En el nivel regional, la Autoridad Nacional de Protección de Datos de Brasil ordenó a Meta que ponga fin al procesamiento de datos personales de sus ciudadanos para entrenar su inteligencia artificial, mediante una medida cautelar dictada el 1º de julio, con importantes multas para el caso de incumplimiento. Aun el Papa, en la Cumbre del G-7, advirtió enfáticamente sobre los riesgos de la inteligencia artificial, calificándola como una herramienta temible, al decir: “Necesitamos garantizar y salvaguardar un espacio para un control humano adecuado sobre las decisiones tomadas por los programas de inteligencia artificial: la dignidad humana misma depende de ello”.
Ante las mencionadas situaciones que suponen el uso de datos personales para alimentar una industria riesgosa, y la clara advertencia de académicos, expertos y hasta del Papa, la pregunta que se impone es la siguiente: ¿qué están haciendo los legisladores para poner reglas de juego a este negocio? ¿Es posible o viable un límite por medio de la legislación? La Unión Europea tomó cartas en el asunto a través de la sanción de la ley de inteligencia artificial (Artificial Intelligent Act o AI Act), vía reglamento 2024/1689 (Reglamento de Inteligencia Artificial de la Unión Europea), publicado el 12 de julio en el Diario Oficial de la Unión Europea, que constituye el primer ordenamiento jurídico integral sobre la materia, y persigue regular la inteligencia artificial de manera global, con un enfoque en sus distintos niveles de riesgo.
En la Argentina no contamos con ninguna normativa que regule la inteligencia artificial; no obstante, el 10 de junio el diputado nacional Juan Brügge presentó un proyecto de ley en la Cámara de Diputados de la Nación (3003-D-2024), con el título: “Régimen jurídico aplicable para el uso responsable de la inteligencia artificial en la República Argentina”, que persigue establecer un marco legal para el uso ético de la IA. El proyecto no ha sido tratado todavía.
Entretanto, en otros países de América Latina, existen distintos intentos legislativos en etapa de desarrollo. No obstante estos antecedentes, si bien no parece viable establecer un límite vía regulación al desarrollo descontrolado de esta tecnología que avanza a toda velocidad, la realidad es que resulta absolutamente necesario establecer pautas regulatorias claras en el nivel internacional, con normas integradas, incluso, a través de tratados internacionales. Nadie desconoce las promesas de bonanzas y avances que ofrece la IA, pero no podemos dejar de remarcar que, sin límites éticos y mínima supervisión humana y reguladora, sus resultados podrán generar graves daños a la humanidad. Para tener en cuenta y recordar: “Yo te avisé y vos no me escuchaste”.
Abogado y consultor en Derecho Digital, Privacidad y Datos Personales; profesor de la Facultad de Derecho de la UBA y de la Universidad Austral; director del programa “Derecho al olvido” de la Universidad Austral