Daniel Innerarity: “Los algoritmos son conservadores y los humanos, imprevisibles”
Para el reconocido filósofo político español, nuestra relación con la tecnología debe ser pensada más en términos de diálogo que de control; debemos reflexionar sobre ese vínculo, que será clave para la democracia
- 13 minutos de lectura'
Veinte años después de haber obtenido en España el Premio Nacional de Ensayo por su influyente libro La transformación de la política, el filósofo Daniel Innerarity (Bilbao, 1959) se ha convertido en un analista fundamental para entender, como él mismo señala, que “la democracia no está a la altura de la complejidad del mundo”.
Hace ya unos años, tras leer una biografía sobre Thomas Jefferson y su vocación por la ciencia, el pensador comenzó a preguntarse qué haría un fundador de la democracia revolucionaria como Jefferson “si en lugar de artefactos y máquinas triviales tuviera delante la inteligencia artificial y los algoritmos más automatizados”. Esa es la inquietud que llevó a este vasco de 62 años a investigar sobre esa nueva complejidad derivada de la tecnología.
Actualmente, Innerarity dirige en el Instituto europeo de Florencia, en Italia, una nueva cátedra de Inteligencia Artificial y Democracia Con esa cátedra el investigador pretende renovar conceptos, porque Innerarity está convencido de que los que usamos ya no sirven para enmarcar las nuevas realidades derivadas de las máquinas pensantes y, por eso, surgen fricciones que también amenazan a la democracia.
“Estamos en un momento de la historia de la humanidad en el que todavía se puede negociar, disentir, reflexionar sobre estas tecnologías”, advierte en conversación desde Florencia, antes de que las mismas tecnologías se hayan solidificado y tomen decisiones sobre las que la sociedad no ha podido discutir.
Innerarity considera que la inteligencia artificial debe tener un diseño humano y que, contra lo que suele temerse, la tecnología no llegó para sustituir a los humanos. “Lo que debemos pensar es qué cosas hacemos los humanos bien y qué cosas hacen bien las máquinas”, sostiene. Entre sus obras de los últimos años se encuentran La política en tiempos de indignación, Pandemocracia. Una filosofía de la crisis del coronavirus y, en 2022, La sociedad del desconocimiento.
–¿Cómo percibe las polémicas cotidianas sobre la inteligencia artificial, como la del investigador de Google que cree que una de sus máquinas ya tiene conciencia?
–Me parece un gran error la estrategia de definir la inteligencia artificial desde los humanos: si los humanos tenemos derechos, las máquinas también; si pagamos impuestos, también. Porque estamos hablando de dos inteligencias completamente distintas. Mi hipótesis es que no va a haber una sustitución. Y también vale para la democracia: no la vamos a abandonar en manos de máquinas, sencillamente porque hacen cosas muy bien, pero no precisamente la política. Es una actividad hecha en medio de una gran ambigüedad. Y las máquinas funcionan bien allá donde las cosas se pueden medir y computarizar, pero no donde hay contextos, ambigüedad, incertidumbre. En vez de pensar en la emulación de los humanos por parte de las máquinas o en temer que las máquinas nos sustituyan, lo que debemos pensar es qué cosas hacemos los humanos bien y qué cosas hacen ellas bien, y diseñar ecosistemas que saquen los mejores rendimientos de ambos.
"La tecnología, si se me permite la provocación, tiene mucha más humanidad de la que los éticos suelen reclamar"
–Su diagnóstico se aleja de la tecnofilia y la tecnofobia.
–Hemos pasado de pensar que la inteligencia artificial va a salvar a la política a, después de lo de Cambridge Analytica, pensar que se va a cargar la democracia. ¿Por qué en un periodo de tiempo tan breve hemos pasado de un gran entusiasmo excesivo a lo contrario, como con las primaveras árabes? Esa especie de ola de democratización que esperábamos por internet no se ha producido. Y ahora la palabra internet la asociamos al discurso del odio, desinformación. Cuando ante una tecnología tenemos actitudes tan dispares, significa que no la estamos entendiendo bien. Porque es verdad que internet horizontaliza el espacio público, acaba con la verticalidad que nos convertiría a los ciudadanos en meros espectadores o subordinados. Pero no es verdad que democratice por sí misma, sobre todo porque la tecnología no resuelve la parte política de los problemas políticos.
–Su nueva cátedra tratará de poner un poco de orden a esas ideas.
–Hay que hacer una renovación de conceptos. Y es aquí donde los filósofos tenemos un papel que desempeñar. Por ejemplo, ahora se dice mucho: ¿de quién son los datos? A mí me parece que el concepto de propiedad es un concepto muy inadecuado para referirse a los datos, que más que un bien público son un bien común, algo que no se puede apropiar, sobre todo porque el nivel de recolección que yo tolero condiciona enormemente el de los demás. Y ahora lidiamos con una idea de privacidad que nunca hemos tenido y el concepto de soberanía, el concepto de poder... Hace falta una reflexión filosófica acerca de ciertos conceptos que se están utilizando de manera inapropiada y merecen una revisión. Hay muchos centros en el mundo que lo están pensando desde el punto de vista ético y legal, y hay muy poca gente que lo está revisando desde el punto de vista político: ¿cuál es la política de los algoritmos, qué impacto tiene esto en la democracia?
–En su reciente libro La sociedad del desconocimiento habla de los algoritmos como una nueva imprenta que viene a revolucionarlo todo.
– El punto de inflexión se produce a partir del momento en que los humanos diseñamos máquinas que tienen vida propia, que ya no son meramente instrumentales. Cuando producimos inteligencia artificial entramos en un terreno bastante desconocido. El reparto del mundo que habíamos hecho, según el cual los humanos somos sujetos de derechos y obligaciones y diseñamos una tecnología meramente pasiva, que está sometida a nuestro control, es una idea que ya no funciona. Hay una ruptura. Lo comparo con el momento en que Darwin acaba con la idea del Dios diseñador de la creación: nos obligó a pensar de una manera diferente. Yo creo que cuando se habla de controlar la tecnología se está en una actitud predarwiniana en ese sentido. Evidentemente, los algoritmos, las máquinas, los robots deben tener un diseño humano, tenemos que debatir sobre eso. Pero la idea de control, como la que hemos tenido clásicamente para tecnologías triviales, me parece que es completamente inadecuada. Lo que tenemos que hacer es establecer una especie de diálogo en el que humanos y máquinas negociemos escenarios aceptables, pensando en la igualdad, el impacto sobre el medio ambiente, los valores democráticos. La idea de controlar no va a funcionar cuando hablamos de máquinas que aprenden.
"Hay que reflexionar sobre la situación antes de que se haya solidificado en instituciones, en procesos sobre los que sea mucho más difícil discutir"
–Pero es muy difícil plantear esa negociación cuando no sabemos qué hay en la caja negra, cuando no sabemos cómo funcionan las cosas dentro del algoritmo.
–Es un problema que hoy por hoy no tiene solución fácil por varias razones. Primero, por la complejidad del asunto. Segundo, porque el algoritmo tiene una vida propia y, por tanto, también es opaco para su diseñador. Y en tercer lugar, porque la idea de auditar los algoritmos, de que haya transparencia, la entendemos como aquel que firma un documento. Creo que tenemos que ir a sistemas públicos que nos permitan establecer una confianza con las máquinas. Esa idea de que estos artefactos son una caja negra, como si los humanos no fuéramos también cajas negras. Los algoritmos para decidir las políticas penitenciarias generan problemas, pero a veces se da a entender que un algoritmo tiene sesgos y los humanos no. ¿Las cabezas de los jueces no son también cajas negras?
– Pero los humanos sabemos que tenemos esos sesgos y dejamos que intervenga la máquina porque aspiramos a que esté menos sesgada.
–Probablemente porque somos más exigentes en relación con la objetividad de la tecnología. De ella esperamos objetividad y en el momento en que nos falla nos resulta mucho más intolerable que con un humano. El caso más claro es el de los accidentes de coches autónomos. Nos producen más desasosiego que los que tenemos todos los días. Pero el accidente famoso del atropello en Arizona se hubiera producido exactamente igual si hubiera conducido un humano.
– Un escenario que plantea el problema de la responsabilidad: ¿quién tiene las riendas cuando actúan máquinas inteligentes?
–Es completamente inadecuado pensar que controlamos a los gobernantes, si acaso hacemos una monitorización, les revalidamos el mandato... Pero no los estamos controlando en todos los momentos del proceso político. Hay muchas instituciones sobre las que no tenemos control electoral, hay organismos independientes. Igual que en el mundo de las instituciones políticas, en el de la tecnología deberíamos llegar a una idea de diálogo con la máquina más que de control. Cada vez conducimos coches sobre los que tenemos menos control, pero son más seguros. El resultado de la tecnología del coche es que pierdo el control absoluto, pero me ofrece a cambio una supervisión general de los procesos para que no me mate. Como cuando los estados ceden soberanía en Europa. Si compartimos soberanía política, ¿por qué no compartir soberanía tecnológica?
– Hay muchas decisiones políticas que tomar antes de dejar que las máquinas las tomen por sí solas.
–Reivindico la reflexión filosófica sobre estos conceptos. ¿Qué tipo de sociedad queremos? La tecnología tiene el carácter de medio para un fin. La cuestión de fondo es qué valores, qué democracia queremos.
–Cita a Nick Seaver: “Si no ves a un humano en el proceso, tienes que mirar en un proceso más amplio”. Cuando interactuamos con Alexa, no vemos lo humano, pero es quien recogió litio en Bolivia, el que está en las granjas de clics en Asia.
–Una de las cosas más importantes para enfocar bien este asunto es pensar menos en contraposiciones. La tecnología tiene muchísima más humanidad, si se me permite la provocación, de la que los éticos suelen reclamar. Frente a quienes conciben la tecnología como algo inmaterial, virtual, intangible, en el ciberespacio es en realidad mucho más material, con un impacto medioambiental brutal. Y esa parte material muchas veces está fuera de nuestro ámbito de atención. Y tiene que haber humanos en el proceso: detrás de procesos aparentemente automatizados hay personas interviniendo sin que lo sepamos.
–Estos procesos tecnológicos llevan a una polarización menos conocida que la política, que es la polarización laboral: el mercado de trabajo se va a dividir entre empleos cualificados y bien remunerados y otros muy básicos y mal pagados.
–Lo cual indica una paradoja: la promesa de la tecnología de liberarnos de los trabajos mecánicos no se ha cumplido. La otra paradoja puede ser que eso esté indicando que las máquinas no nos van a sustituir plenamente. La expectativa o el miedo de que nos sustituyan es completamente irrealista. Y eso tiene que ver con una distinción importantísima entre tarea y trabajo; las máquinas hacen tareas, pero no propiamente trabajos. Y en esa transición es posible que vayamos a tener un nuevo tipo de conflictos sociales. En vez de pensar en términos de sustitución, tenemos que pensar qué tareas pueden y deben ser realizadas por un robot y qué aspectos de lo humano son irrealizables por un robot. No tanto si esto es bueno o malo. La inteligencia artificial sirve para resolver cierto tipo de problemas políticos, pero no otros. No tengamos tanto miedo a que las máquinas se hagan cargo de todas las tareas del gobierno y, en cambio, facilitemos aquellas tareas de gobernanza que puedan hacer mejor que nosotros.
– ¿Qué lo preocupa más en ese ámbito?
–Lo que más me preocupa es la falta de reflexividad. Que el entorno algorítmico nos acostumbre a que determinadas cosas se decidan de un modo sobre el cual no hemos discutido suficiente. ¿Vamos a ir a entornos algorítmicos, automatizados? Perfecto, pero sepamos que detrás hay algún tipo de autoridad. Veamos de qué autoridad se trata, y hagamos lo que siempre hemos hecho los humanos con toda autoridad: someterla a revisión.
–Sin embargo, la inteligencia artificial se está desarrollando casi exclusivamente con el impulso de estas grandes tecnológicas. Son Facebook, Amazon, Google las que están decidiendo qué máquinas inteligentes tenemos, y con el único objetivo de maximizar beneficios.
–Estamos en un momento de la historia de la humanidad en el que todavía se puede negociar, disentir y reflexionar sobre estas tecnologías. Es muy posible que dentro de no muchos años estas tecnologías se hayan solidificado en instituciones, en procesos, en algoritmos sobre los que sea mucho más difícil discutir. Por eso es importante este trabajo de reflexión filosófica. Hay mucha gente planteándose la regulación tecnológica, pero no vamos a regular bien una tecnología que no comprendemos porque fallan los conceptos. La reflexión tecnológica y la reflexión filosófica deben ir de la mano como soportes de cualquier actividad regulatoria.
–Critica que hay un conservadurismo implícito en el big data.
–El big data, y toda la analítica predictiva, son muy conservadores porque se basan en el supuesto de que nuestro comportamiento futuro va a estar en continuidad con nuestro comportamiento pasado. Lo cual no es completamente falso, porque los humanos somos muy automáticos y muy conservadores, y repetimos; tenemos una resistencia a cambiar. Pero en la historia de la humanidad hay momentos de ruptura, de cambio, de transformación. Y si el algoritmo no es capaz de contemplar un escenario indeterminado, abierto, no permitirá ese elemento de innovación, de novedad, que hay en la historia. Como dice Shoshana Zuboff, nos robará el futuro. Otra filósofa, Hannah Arendt, dice que los seres humanos somos animales con grandes hábitos e inercias, pero también capaces de hacer milagros, de hacer algo insólito. No todos los días, pero sí de vez en cuando. Revoluciones, innovaciones, ruptura con la tradición, cuestionamientos. Y en un momento de la historia de la humanidad tan singular, en el que somos muy conscientes de que tenemos que hacer grandes cambios por la crisis climática, la transformación digital, la igualdad... En un momento así tendríamos que disponer de una tecnología que sea capaz de anticipar el futuro de verdad, abierto, democrático. O bien, tenemos que considerar que esas tecnologías tienen unas determinadas limitaciones y trazar bien cuáles son esas limitaciones, cuál es el ámbito de aplicación de unos algoritmos, de unas tecnologías básicamente conservadoras. Y dejar espacios indeterminados y abiertos para la libre dimensión humana e imprevisible me parece una cuestión democrática fundamental. Los humanos somos seres imprevisibles: buena parte de nuestra libertad se la debemos a eso y las máquinas deben reflejar bien esto.
PENSADOR DE UN MUNDO COMPLEJO
PERFIL: Daniel Innenarity
■ Daniel Innerarity nació en Bilbao, España, en 1959. Es doctor en Filosofía y se perfeccionó en Alemania, como becario de la Fundación Alexander von Humboldt, en Suiza e Italia. Es investigador en la Universidad del País Vasco y director del Instituto de Gobernanza Democrática.
■ Ha enseñado como profesor invitado en diversas universidades europeas y estadounidenses y es profesor en el Instituto Universitario Europeo en Florencia, Italia, donde acaba de inaugurar una cátedra de Inteligencia Artificial y Democracia.
■ Fue considerado en Francia como uno de los pensadores más relevantes de la actualidad y colabora habitualmente con diversos medios, como El País y La Vanguardia.
■ Entre sus muchos libros se cuentan La democracia del conocimiento (2012); Una teoría de la democracia compleja. Gobernar en el siglo XXI (2020), Pandemocracia. Una filosofía de la crisis del coronavirus (2020) y La sociedad del desconocimiento (2022).