Si un vehículo autónomo tiene un accidente, ¿quién es el responsable?
¿Usaría dispositivos con inteligencia artificial (IA) que no resarcieran los daños que causaran? Si un vehículo autónomo atropellara a un peatón, si un detector inteligente de fuego no funcionara y se produjera un incendio o si un robot quirúrgico fallara en plena operación, ¿debería haber indemnización? La respuesta es claramente sí. Lo contrario sería devastador para la confianza que podamos tener en la IA.
En este contexto, la responsabilidad civil es una pieza clave porque garantiza que quien sufra un daño sea resarcido y reciba una indemnización. Así se promueve la innovación en sistemas IA que sean más eficientes al evitar que causen daños.
El pasado 20 de octubre de 2020, el Parlamento Europeo emitió una resolución con recomendaciones para elaborar un régimen de responsabilidad civil en materia de inteligencia artificial. Es adecuado que la normativa sea europea. La única manera para poder tener un mercado europeo digital es que no se rompa a través de normativas nacionales que fragmenten la unidad.
¿Quién es el responsable en caso de accidente?
No es necesario cambiar todas las normas de responsabilidad civil de todos los países de la UE, pero sí es necesario afrontar las nuevas realidades que no están reguladas en las normas tradicionales. Todos sabemos que quien conduce un coche es responsable de los daños que causa, pero, en un coche autónomo, ¿quién es realmente el conductor?
Las categorías que solemos usar no valen. Puede hablarse de dos tipos de operadores, que serán los responsables de acuerdo con la resolución:
- Un operador inicial (fabricante, programador…) “que define, de forma continuada, las características de la tecnología y proporciona datos y un servicio de apoyo final de base esencial y, por tanto, ejerce también grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA” (art. 3 f).
- Un operador final (por ejemplo, quien mantiene el sistema, quien lo ejecuta…) “que ejerce un grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA y se beneficia de su funcionamiento” (art. 3 e).
Tecnologías de alto riesgo
También hay que tener en cuenta que todos los dispositivos que incorporan IA no son iguales. Algunos no pueden causar graves daños al usuario, como una aplicación que nos sugiere música que nos gusta.
En cambio, hay otros como un vehículo autónomo o un robot quirúrgico que pueden considerarse de “alto riesgo”, que es “el potencial significativo en un sistema de IA que funciona de forma autónoma para causar daños o perjuicios a una o más personas de manera aleatoria y que excede lo que cabe esperar razonablemente. La magnitud del potencial depende de la relación entre la gravedad del posible daño o perjuicio, el grado de autonomía de la toma de decisiones, la probabilidad de que el riesgo se materialice y el modo y el contexto en que se utiliza el sistema de IA” (art. 3 c).
En la resolución se propone una responsabilidad objetiva para los sistemas de IA de alto riesgo. De esta forma, los operadores que hemos mencionado antes no podrán eludir su responsabilidad “alegando que actuaron con la diligencia debida o que el daño o perjuicio fue causado por una actividad, un dispositivo o un proceso autónomos gobernados por su sistema de IA” (art. 4. 3). Solo podrán exonerarse si ocurre un suceso de fuerza mayor: un suceso imprevisible e inevitable (más allá de la diligencia exigible para prever y evitar) que es exterior al sistema de inteligencia artificial.
Junto a lo anterior, el operador final de un sistema de alto riesgo, como un coche autónomo, deberá tener un seguro de responsabilidad civil adecuado para cubrir las posibles responsabilidades (art. 4. 4). La recomendación aventura una limitación de la cuantía de la indemnización de dos millones de euros para los supuestos de fallecimiento y daños a la salud o la integridad física y de 1 millón de euros para el resto de daños morales y patrimoniales.
Sistemas de bajo riesgo
Para el resto de sistemas de IA la recomendación plantea una responsabilidad subjetiva. El operador no tendrá que rendir cuentas si “se observó la diligencia debida a través de la realización de las siguientes acciones: la selección de un sistema de IA adecuado para las tareas y las capacidades pertinentes, la correcta puesta en funcionamiento del sistema de IA, el control de las actividades y el mantenimiento de la fiabilidad operativa mediante la instalación periódica de todas las actualizaciones disponibles” (art. 8. 2 b).
Igualmente hay una exoneración o reducción de la responsabilidad si el daño se debe total o parcialmente a la actuación de la persona afectada o de alguien que actúa bajo su responsabilidad.
Todavía queda mucho por hacer y regular, pero dos cuestiones deben quedar claras:
- Hay que favorecer la innovación tecnológica con seguridad, porque una IA sin control será dañina y producirá una innovación ineficiente lastrando la confianza en la tecnología, lo que sería un error mayúsculo.
- La normativa existente no basta y la nueva debe ser europea si queremos tener un mercado único que sea robusto y sitúe a Europa en una posición en la que pueda competir con el resto de gigantes tecnológicos.
Iñigo A. Navarro Mendizabal es profesor ordinario de Derecho civil, Universidad Pontificia Comillas
Este texto se republica de The Conversation bajo licencia Creative Commons
Otras noticias de Vehículos autónomos
Más leídas de Tecnología
Como en Austin Powers. Rusia multa a Google por US$ 20.000 quintillones, más que todo el dinero que hay en el mundo
Proyectar confianza. Cuáles son las tres palabras que repiten las personas más seguras, según la inteligencia artificial
Cyber Monday 2024. Tres sitios para comparar precios y encontrar las verdaderas ofertas
Según a la IA. Cuáles son los tres signos con "más suerte" en noviembre 2024