La legislación argentina frente a la IA
La irrupción de la inteligencia artificial (IA) está modificando sensiblemente el desarrollo de la vida social y económica. En el plano de los ejemplos, los sistemas de IA se hacen presentes en reconocimientos faciales, análisis financieros, vehículos autónomos, robots, asistentes virtuales de atención al cliente, estudios de comportamientos de consumidores y diagnósticos médicos, entre otros.
El impacto de estos sistemas despertó tanto la atención de los agentes económicos como de los juristas. De hecho, en marzo de este año el Parlamento Europeo aprobó la ley de inteligencia artificial frente a la necesidad de brindar soluciones armónicas en los distintos países que integran esa comunidad. Pero ¿qué ocurre en el caso de la Argentina? Considero que en nuestra legislación existen herramientas suficientes para dar respuesta ante los daños que puedan causarse mediante los sistemas de IA.
Hay que tener en cuenta que la autonomía de funcionamiento de ciertos sistemas de IA y la opacidad o el llamado efecto “caja negra” que en ocasiones los caracterizan pueden oscurecer el análisis del intérprete. Es decir, si bien se puede controlar el “ingreso” y el “egreso” de la información, no siempre es factible comprender cuál es el proceso que se realizó para llegar al resultado provisto por el sistema.
En términos jurídicos lo que está en juego es la previsibilidad de la respuesta, lo que podría dar lugar a la ocurrencia de un caso fortuito que fracture el nexo de causalidad. Sin embargo, debe tenerse presente que el caso fortuito no exime de responsabilidad cuando constituye una contingencia propia del riesgo de la actividad.
Con respecto al fundamento del deber de responder, las XXVII Jornadas Nacionales de Derecho Civil celebradas en 2019 concluyeron: “Puede incluirse en el elenco de actividades riesgosas, entre otras: la utilización de algoritmos, las actividades cibernéticas, las plataformas digitales y los sistemas operados por inteligencia artificial”.
“Riesgo” implica potencialidad de daño y quien introduce un riesgo en la sociedad debe responder si el perjuicio se concreta. No es menester la acreditación de la falta de diligencia de quien se pretende responsabilizar. Cuando el fundamento es el riesgo, quienes deberán responder por esa actividad dañosa son quienes la realizan, se sirven u obtienen provecho de ella, por sí o por medio de terceros. Si se está ante un sistema de IA implantado en un equipo, tal como un vehículo autónomo, naturalmente responderán concurrentemente el dueño y quien lo haya utilizado. Además, si existe una relación de consumo, serán responsables concurrentes todos los integrantes de las cadenas de fabricación y comercialización de estos sistemas por el daño que experimentara el consumidor.
Ahora bien, si bien en muchas oportunidades ese factor de atribución objetivo de responsabilidad será el que corresponda aplicar, no creo que todas las tecnologías de IA encuadren como “riesgosas”. Piénsese en tecnologías que no operan con autonomía, sino que hacen las veces de “prolongaciones instrumentales” de quien las utiliza. Por ejemplo, el médico que efectúa un diagnóstico sobre la base de una recomendación realizada por un sistema de IA; aquí el fundamento del deber de responder será a título de culpa o dolo.ß
Director del Departamento de Derecho Civil de la Universidad Austral y presidente de las XXIX Jornadas Nacionales de Derecho Civil