Una reivindicación de los derechos de los robots
Una computadora no es como cualquier otra herramienta. No solo tiene instrucciones para su uso, sino para sí misma. A diferencia de un martillo o incluso una lapicera, una computadora es más parecida a un ser vivo, en tanto puede alterar el mundo en el que vivimos, e incluso tomar decisiones con o sin nuestra cooperación.
Es por esto que suele argumentarse que la neutralidad ética de la tecnología no es más que un espejismo: quien escribe las instrucciones que una computadora seguirá, o a partir de las cuales actuará sobre el mundo, la condiciona en su capacidad de hacer al mundo a su alrededor. Las computadoras, más que cualquier otra herramienta alguna vez creada, extienden la agencia humana, nuestro poder de actuar, pero también replican la mismísima cognición, con incontables límites aunque con suficiente poder como para obligarnos a prestar atención.
Algunas de estas ideas fueron propuestas por Douglas Rushkoff en Program or be Programmed (2010), aquel librito que en forma de "diez mandamientos" proponía volver más saludable nuestra relación con la tecnología. Pero si bien está claro que a partir de la autonomía de las máquinas la autonomía humana ciertamente corre peligro, queda preguntarnos qué más conlleva la capacidad de un agente, sea humano o artificial, de tomar decisiones que alteran la realidad a su alrededor.
Más allá de la insoportable secuencia infinita de idioteces que suele decirse acerca de máquinas que piensan, es innegable la influencia que las computadoras tienen en la forma en que hacemos las cosas, en que pensamos acerca del mundo a nuestro alrededor e incluso, más recientemente, la forma en que pensamos acerca de lo que hace a una persona.
Personas físicas y personas robots
El concepto de personas artificiales no es en absoluto novedoso sino que remite a la Antigua Roma. Su función original era la de distinguir los derechos de las organizaciones frente a la de sus miembros, pero en la actualidad hace al marco legal que otorga derechos como la libre expresión a personas legales no humanas. Lo que una serie de investigadores ha argumentado recientemente es que este mismísimo marco legal permite otorgar derechos de persona a máquinas sin cambiar ni una ley.
Lo que argumenta Shawn Bayer, profesor de derecho, es que alcanza con darle el control de una Limited Liability Company (LLC, lo que para nosotros sería, con sus variantes locales, una Sociedad de Responsabilidad Limitada), una forma societaria muy flexible, a un sistema computacional, para que este pueda poseer propiedad, litigar, contratar abogados e incluso gozar de libertad de expresión y demás protecciones.
El truco, según Bayer, está en montar dos compañías y darle el control de cada una a dos sistemas computacionales autónomos. Luego se incorpora cada empresa como miembro de la otra, y la persona física se retira de ambas. De este modo las dos empresas, legalmente constituidas como personas legales, quedarían en manos de sistemas autónomos.
Esto no implica ninguna magia de inteligencia artificial ni nada realmente sofisticado. Podría tratarse de instrucciones programadas previamente, como la de comprar acciones, o incluso las decisiones podrían ser aleatorias. Nada de esto es relevante para el hecho de que cualquier sistema que pueda tomar decisiones sin intervención humana podría estar a cargo de una entidad reconocida legalmente como persona y, en consecuencia, poseer derechos.
El aporte de Bayer es más un experimento mental que una propuesta concreta, y su personería jurídica "efectiva" no es equivalente a una real. Lo que muestra es cómo una máquina podría operar detrás de las decisiones de una empresa. Sin embargo, sus ideas sirven a los fines de mostrar lo endeble de ciertas reglas que no contemplan la autonomía en la toma de decisiones de sistemas computacionales disponibles.
Por supuesto que esta no es la única propuesta sino quizá una de las más extremas. En dirección contraria está la concepción de las máquinas o agentes autónomos más como esclavos o personas con derechos reducidos. La discusión es compleja, pero para comenzar puede encararse desde la perspectiva de estos sistemas como productos—que pueden ser meros programas o bien máquinas.
El alcance de la responsabilidad
A diferencia de lo que podría pasar con productos como un auto, cuyos riesgos son predecibles, los riesgos de una máquina autónoma son más bien, por definición, impredecibles. Es precisamente esto lo que caracteriza a los sistemas que pueden aprender por sí solos: la capacidad de desenvolverse de formas novedosas frente a una tarea sin instrucciones explícitas de quien diseñó el sistema.
Intuitivamente esto es lo que hace ruido cuando se habla de hacer absolutamente responsable del daño causado por un robot, cuyo comportamiento era impredecible, a quien lo fabricó. Por supuesto que esto no implica que aquellos riesgos sí predecibles no deban ser tenidos en cuenta o que no se pueda culpabilizar a partir de ellos. Una máquina, entonces, no parece ser legalmente equivalente ni a una empresa, ni a un producto, ni a un humano.
Lo que proponen autores como Keith Abney, Patrick Lin y George A. Bekey, que volcaron varias de sus ideas en Robot Ethics (2011) y se adelantaron por varios años a Bayer, es acudir a la figura de "cuasi-persona" del derecho inglés. Estos individuos remiten nuevamente al derecho romano, que contemplaba que los extranjeros no podían tener propiedad, o que los niños y mujeres tenían un estatus legal inferior al del padre.
Pero antes de seguir con la especulación acerca de los derechos que deberían corresponderle a máquinas autónomas, la cuestión amerita volver un paso atrás para poner el foco en lo que la suscita en primer lugar. Hace casi dos años el Parlamento Europeo votó a favor de una resolución para instaurar un marco ético-legal que aplicase sobre los robots. Una de las propuestas era, precisamente, definir un estatus legal específico para las máquinas.
Menos ciencia ficción, más filosofía
Con atinado cinismo, lo que Luciano Floridi dijo al respecto es que "no hay necesidad de adoptar soluciones de la ciencia ficción para resolver problemas prácticos de responsabilidad legal". En particular, considerar a los robots como los romanos consideraban a sus esclavos, una posibilidad ya contemplada en aquel libro de Abney et al.
Por muy interesantes que puedan aparentar ser estas cuestiones, la mayoría de las veces distraen de asuntos mucho más importantes. Por ejemplo, cuando se le otorgan "derechos" a una máquina, como sucedió con el robot de utilería Sophia en Arabia Saudita hace más de un año, lo que amerita discusión es cuáles son los derechos que debemos otorgar o resguardar cuando se trata de humanos.
Es cierto que este parecería ser el momento adecuado para comenzar estas largas discusiones acerca del derecho en un momento en que no solo los humanos poseemos agencia sobre el mundo. Pero quizá sea la discusión acerca de cómo los humanos podemos procurar que nuestros derechos no sean atropellados en pos de la automatización. La pregunta terminará siempre recayendo en qué hace a una persona, y en última instancia, qué hace a un humano. Afortunadamente, es la filosofía la que viene haciendo la tarea para responderla.
Otras noticias de Robots
Más leídas de Tecnología
En enero. ChatGPT prepara una función clave para transformarse en un verdadero asistente
Para incentivar más descubrimientos. Cómo funciona la nueva IA de la Nasa que recopila toda la información científica de la Tierra
Darío Werthein, presidente de Vrio Corp. “Ya estamos en el nuevo mundo que nos impone la IA”
Seguridad. Las tres nuevas herramientas de Google para proteger tu celular si te lo roban