En busca de una ética para la inteligencia artificial
Una certeza recorrió la Semana de la Ciencia de Berlín: lejos de ser neutrales, los robots portan los sesgos de los humanos que los crean
- 7 minutos de lectura'
Una de las primeras decisiones que tomó el magnate sudafricano Elon Musk cuando se hizo cargo de Twitter por el módico estipendio de 44.000 millones de dólares fue desmantelar al equipo de ética en Inteligencia Artificial (IA). Como cuando fallece alguien que no sabíamos que estaba vivo, en este caso hay dos noticias en una: que Twitter ya no tiene equipo de ética, y que tenía. ¿Por qué era necesario? Una de las ilusiones que generan las herramientas, y más las herramientas súper-tecnológicas, es que son limpias, sanas, higiénicas, que no tienen ningún sesgo o desviación, dado que son justamente maquinales. Pero los expertos saben desde hace bastante que esto no es así, y que los algoritmos, en última instancia humanos, si están cargados/programados de manera defectuosa pueden continuar y hasta acentuar discriminaciones, errores y sesgos de los programadores. De esos temas se ocupó una parte importante de la programación de la séptima edición de la Semana de la ciencia de Berlín, con otras decenas de actividades que reunieron además temas artísticos y culturales junto con los más claramente educativos en once días de intensa actividad (este año fue del 1° al 10 de noviembre) organizadas por diversas instituciones locales, públicas y privadas.
Apps, redes y derechos
“La historia de los humanos es la de la creación de grandes herramientas, y la Inteligencia Artificial es una de ellas, pero hay que desmitificarla”, propuso Adina Popescu, pionera del rubro y filósofa, fundadora de Earth, un centro descentralizado que busca reunir documentos y propuestas “para regenerar el planeta”. Para ella, el problema es que la IA necesita –y es el resultado de– una colección de datos, “pero no está desconectada del modelo de negocios; el problema son los modelos de negocios, no la IA en sí”, dijo. “Un buen algoritmo tiene demasiada información de mucha gente, pero no hay participación de la gente en las decisiones que toma”, dijo durante la sesión “Repensar a los humanos y a las máquinas”.
Además del diagnóstico, Popescu propicia una solución a este problema: el blockchain, el sistema de codificación de información en bloques, uno de cuyos productos son las monedas virtuales (pero no el único).
Para Juan Corvalán, cofundador y director del laboratorio de innovación e inteligencia artificial de la UBA, el principal problema ético de la IA es la falta de una regulación concreta, específica, “por ejemplo, en la evaluación de los impactos de sesgos desde el diseño o de todo el ciclo de vida de IA”
Para Juan Corvalán, cofundador y director del laboratorio de innovación e inteligencia artificial de la UBA, que no participó del encuentro alemán, el principal problema ético de la IA es la falta de una regulación concreta, específica, “por ejemplo, en la evaluación de los impactos de sesgos desde el diseño o de todo el ciclo de vida de IA”; y no es lo mismo para el análisis de Big Data que para otros sistemas que sí tienen revisión humana. Agregó que habría que revisar la tensión que existe entre la regulación de los Estados y la que hacen las empresas motu proprio. El problema, señaló Corvalán a la nacion, es que en América Latina se perfila a los usuarios a través de la IA “sin estándares éticos y con vulneración de derechos a gran escala”. “Se aceptan sin leer las condiciones de usuario en apps y redes que no tienen una base ética”, dijo. Los sesgos son de estándares machistas, sexistas y raciales, entre otros; “no hay una ética desde el diseño y no se abarca esto desde el inicio sino que se reproduce y multiplica la discriminación; esto pasa hoy en la Argentina”, se lamentó.
Aljoscha Burchardt, del Centro Alemán de Inteligencia Artificial (que reúne investigaciones en cinco áreas, desde el uso de tecnología portátil hasta los asistentes cognitivos, pasando por la clásica del análisis estadístico de datos), mencionó en un encuentro con periodistas también parte de la Semana de la Ciencia de Berlín, que otra cuestión clave es la confianza que puede tener o no la sociedad en la IA; por ejemplo, respecto del manejo autónomo de los autos por las ciudades. Y planteó algunos de los desafíos que tiene el campo, por ejemplo, “pensar la finalidad de la herramienta: ¿se trata de ayudar a los humanos o de reemplazarlos en ciertas áreas?” En ese sentido puso el ejemplo del sector público alemán ya que se prevén momentos críticos en los próximos 10 a 15 años, cuando se jubilará la mitad de los empleados públicos y eso generará una serie de problemas con el conocimiento que se va: ¿es reemplazable por sistemas?
Más allá de los aspectos éticos puntuales, hay otra sombra que ronda la aparición de inteligencias súper poderosas que hacen lo que los humanos no pueden: qué decisiones tomarán por su lado, si se independizarán de papá y mamá sapiens y generarán la famosa singularidad, donde tendrán voluntad propia y harán lo que les parezca mejor para ellas. De momento, a los expertos les parece que no es una perspectiva que exceda a las novelas de ciencia ficción. Pero son esos mismos expertos –como Popescu– los que no se atreven a decir cuál es el futuro porque, claro, no está determinado sino que depende de las decisiones que se tomen en el ápice vertiginoso del presente.
Cuando el arte ataque
Y si la IA impacta en ámbitos obvios de la vida cotidiana y de los empleos, al modificarlos para siempre también lo hace con una de las actividades de las que el humano se jacta como producto de su inteligencia: el arte. La IA es a la vez “intrigante y comprometedora” no sólo por aspectos éticos, sino también en lo que tiene que ver con quién es dueño del arte, el concepto de plagio y otros ítems clásicos, según subrayó Swetlana Heger-Davis, vicepresidente de un departamento artístico de la Universidad de las Artes de Zurich, durante otro panel de la Semana de la Ciencia berlinesa. Heger-Davis agregó que “nunca en la historia de la civilización fue más fácil, rápido y barato conseguir visiones como las de los profesionales en cualquier ámbito que una persona pudiera soñar, con o sin un entrenamiento artístico”; y semejante hecho cambia la manera en que el humano se ve a sí mismo (a través de su instrumento favorito: el arte).
En la misma sesión, la artista conceptual Nora Al-Badri, directora del AI+Art initiative del Centro ETH en Zurich, casi en la escuela mcluhaniana, disertó respecto de cómo reaccionar y al mismo tiempo reflejar la nueva era de las tecnologías emergentes, “al usarlas no sólo como una herramienta sino también como un medio y un mensaje”, según se señalaba la presentación de su charla. Al-Badri mostró sus trabajos, en los que los espectadores son parte del show y a su vez también de algún modo lo crean; y dejó una pregunta inquietante: ¿y si es imposible terminar con los sesgos de las máquinas y programas?
Lo cierto es que las máquinas no son sólo máquinas sino que también son hijas de –y se insertan en– una sociedad específica. Es lo que señaló en el mismo panel Marie-France Rafael, también de la Universidad de Artes de Zurich: “Se trata del capitalismo de vigilancia y de su principal instrumento, el algoritmo”. En ese sentido, dijo, es que muchos artistas tratan de ver y pensar cómo actúa ese dispositivo en el mundo actual.
El equipo de ética de Twitter, mencionado al comienzo de esta nota, era más abierto que el promedio en otras mega-compañías. Según contó la revista Wired, publicaba detalles de los sistemas y sus problemas (como que un algoritmo favorecía a los rostros blancos a la hora de recortar imágenes), para ver cómo corregirlos. Musk, en busca de la rentabilidad perdida, parece desdeñar ese esfuerzo, ahora desempleado; se verá si lo logra. Y a qué precio.