La denuncia presentada ante la Agencia de Acceso a la Información Pública pide que la compañía aclare cómo preserva la intimidad de los datos de los usuarios, que usa para mejorar a su inteligencia artificial
- 3 minutos de lectura'
La nueva IA de Meta, que irrumpió en Instagram, WhatsApp, Facebook y Messenger la semana pasada (el famoso círculo azul llamado Meta IA que está disponible en las aplicaciones), empieza a traer algunos coletazos inesperados. En este caso, por una denuncia formal presentada por los abogados especializados Facundo Malaureille y Daniel Monastersky ante la Agencia de Acceso a la Información Pública (AAIP). Ahora, el organismo deberá evaluar y responder a esta denuncia. El tema de fondo es el uso de los datos personales en el entrenamiento de la inteligencia artificial que nutre a este asistente.
La presentación, compuesta por 22 puntos, exige a Meta Argentina explicaciones sobre sus prácticas de recolección y uso de datos personales para entrenar a la IA. Los requerimientos incluyen información sobre la actualización de la política de privacidad de la plataforma y evidencia del consentimiento de los usuarios. Explicaciones técnicas sobre los procesos de anonimización de datos y garantías de su irreversibilidad (es decir, confirmar que no sería posible tomar esos datos y reconstruir la identidad de quien los aportó al usar estas herramientas). Aclaraciones sobre la prevención de la reidentificación de datos anonimizados. Detalles sobre el manejo de metadatos y datos sensibles en el proceso de anonimización. Y detalles sobre las políticas de retención y destrucción de datos.
La denuncia también solicita a la AAIP una auditoría independiente de los procesos de Meta en Argentina y la creación de directrices sobre los estándares de anonimización aceptables en el país, en el marco de sus facultades según la Ley 25.326.
Los denunciantes y su motivación
Malaureille y Monastersky, directores de la Diplomatura en Data Governance de la Universidad del CEMA, señalan que “con esta presentación, buscamos que Argentina tome una posición proactiva en la regulación del uso de datos personales para el entrenamiento de IA”. Para Monastersky, “esta denuncia busca establecer un precedente legal que guíe futuras regulaciones y prácticas en el ámbito de la IA y la protección de datos en nuestro país”, según explicó en CiberseguridadLatam.
Esta denuncia en Argentina se enmarca en un creciente escrutinio global sobre las prácticas de las grandes tecnológicas en IA y protección de datos. En Brasil, la autoridad de protección de datos (ANPD) de ese país obligó a Meta a suspender “Meta AI” y enfrenta posibles multas diarias de 50 mil reales por incumplimiento, además de una sanción de 1733 millones de reales solicitada por la Fiscalía brasileña contra WhatsApp por violación de privacidad. En Europa, Meta decidió no lanzar sus modelos de IA multimodal debido a la “naturaleza impredecible del entorno normativo”.
Allí también existe la posibilidad de oponerse a las nuevas políticas de uso de la plataforma, una alternativa que no está disponible en el país, y que hubiera habilitado la reforma de ley 25.326 de protección datos personales, cuya modificación está frenada en Diputados.
Malaureille y Monastersky sostienen que “la ausencia de una legislación actualizada en este campo coloca a los ciudadanos en riesgo de sufrir abusos potenciales por parte de empresas multinacionales que manejan grandes volúmenes de información personal”.
La IA de Meta
Meta AI es el chatbot que compite contra ChatGPT, de OpenAI o Gemini, de Google. El modelo de lenguaje (Llama 3.1) es uno de los más grandes: tiene 405 mil millones de parámetros. Se integró dentro de Instagram, Facebook y WhatsApp hace unos días, y ofrece a los usuarios una variedad de funcionalidades útiles y creativas, entre ellas las de responder preguntas, crear textos, ofrecer generación de imágenes, asistencia en conversaciones, traducir textos o buscar información, entre otras funcionalidades.