Yuval Noah Harari: “Existe un potencial totalitario en la inteligencia artificial”
El influyente pensador israelí dio una conferencia para presentar su nuevo libro, “Nexus”, en el que reconstruye la historia de la información hasta el presente; las fake news, el riesgo que corren las democracias, y la mirada cínica de la extrema derecha e izquierda: “lo único que importa es el poder”
- 12 minutos de lectura'
“¿Cómo es qué tenemos la tecnología de la información más importante de la historia y las personas parecen incapaces de hablar entre sí? Republicanos y demócratas no están de acuerdo en nada, salvo en que la gente no puede tener una conversación racional sobre los temas más básicos”, dijo hoy el intelectual israelí Yuval Noah Harari (Kiryat Atta, 1976) en el lanzamiento internacional de Nexus, su nuevo libro. “Y eso está pasando después de que los gigantes tecnológicos hayan creado esta tecnología tan sofisticada y nos hayan prometido que nos iba a conectar a todos e iba a diseminar la verdad; entonces, ¿qué pasa? Es la misma pregunta en todos los países, de Canadá a Brasil”.
En su conferencia para medios de España y América Latina, de la que participó LA NACION, Harari se refirió al riesgo que representan para las democracias la difusión de fake news, no tanto por parte de los usuarios (”Todos tenemos derecho a la estupidez”, dijo), sino de los algoritmos que utilizan grandes compañías como Facebook, X y TikTok, que alimentan con teorías conspirativas y mentiras el odio y la indignación; el papel de las academias y el periodismo en la búsqueda de la verdad y las amenazas de posibles usos “totalitarios” de la inteligencia artificial (IA).
El esperado Nexus. Una breve historia de las redes de información desde la Edad de Piedra hasta la IA (Debate, $ 36.999), del influyente pensador, ya está en librerías y tiendas online. El historiador, gurú humanista crítico de la “tecnocracia”, creador de la consultora Sapienship con su pareja, el emprendedor Itzik Yavah (Harari le dedica el libro), y best seller internacional con los ensayos Homo sapiens, Homo Deus y 21 lecciones para el siglo XXI, respondió preguntas en una rueda de prensa virtual, acompañado por su editor en español, Miguel Aguilar.
Harari, que ha vendido más de veinticinco millones de ejemplares de sus obras, se ha convertido en un pensador de “escala global”, remarcó Aguilar. Con el filósofo japonés y crítico del capitalismo Kohei Saito, Harari debatirá sobre la necesidad de una “revisión del sistema global” en la próxima Feria del Libro de Frankfurt, el 16 de octubre.
En Nexus, Harari dedica centenares de páginas a reconstruir la historia de la información y, en particular, a analizar el “lado oscuro” de la IA. Si bien reconoce que esta tiene usos positivos -acota con humor que las grandes empresas tecnológicas se ocupan de difundirlos ampliamente en sus plataformas.-, también señala los riesgos que el desarrollo de la IA podría tener para las democracias.
El lanzamiento del libro se hizo desde Nueva York, en simultáneo en varios países e idiomas. “Está funcionando muy bien -dijo Harari-. Pensamos que no debía publicarse después de las elecciones en Estados Unidos porque nadie iba a prestarle atención. Pero como aborda buena parte de los temas importantes y escándalos relacionados con las elecciones, está recibiendo mucha atención”.
Donald Trump, el candidato del Partido Republicano, aparece mencionado más de cuarenta veces en Nexus (donde se lo identifica como un líder populista); la candidata del Partido Demócrata, Kamala Harris, ninguna (tampoco el presidente Javier Milei ni el “anarcocapitalismo”, a diferencia de su amigo Jair Bolsonaro, “furibundo antimarxista” de un partido marginal que llegó al poder en Brasil gracias a los algoritmos de YouTube, según Harari).
Para Harari, la inteligencia artificial es distinta de cualquier otra tecnología inventada anteriormente. “No es una herramienta, es un agente independiente -definió-. Cualquier tecnología previa tenía un poder ingente, pero ese poder estaba en manos de los seres humanos. La bomba atómica no podía decidir nada ni inventar un arma nueva; la IA es distinta: puede tomar decisiones por sí misma”.
Dio como ejemplo lo que sucede con el periodismo. “En Facebook, el papel del editor ha sido asumido por algoritmos; ese poder inmenso está en manos de la IA, que no solo toma decisiones sino que además crea historias, imágenes, códigos. Hay una explosión de IA que queda fuera de nuestro control”, ilustró.
“La información no es verdad, ni tampoco conocimiento -sostuvo el pensador-. La visión ingenua que impera en Silicon Valley cree que la información es conocimiento, pero la mayor parte de la información es basura y no es verdadera. La verdad es cara; escribir un informe verdadero requiere tiempo y dinero; escribir una mentira o una ficción es barato. La gente prefiere historias sencillas a las complicadas, y la verdad puede ser complicada o dolorosa. Si queremos que prevalezca la verdad, tenemos que invertir en instituciones como diarios, academias, comités científicos que apoyen este esfuerzo por descubrir y diseminar la verdad”.
Harari sostuvo que es responsabilidad de las sociedades resistir a ideas “ingenuas” como las de Elon Musk de que la gente necesita más información para descubrir la verdad por sí misma. “Esto no es así”, aseguró.
La IA tiene la capacidad de crear historias. “Pueden no ser muy buenas sus creaciones por ahora, pero entendamos que son los primeros pasos. No hemos vista nada todavía, y no la estoy glorificando”, advirtió. “Si el ChatGPT es una ameba, me pregunto cómo será el tiranosaurio”, expresó (citándose a sí mismo en Nexus). “Cuando leo un texto creado por ChatGPT, me maravilla, pese a sus defectos. Nadie sabe cómo será dentro de diez años, pero cada vez más artefactos culturales serán el producto una inteligencia alien. Qué hará esto a la inteligencia humana nadie lo sabe y es la gran pregunta”.
Existe el temor de que la IA podría conducir a la humanidad a un totalitarismo tecnológico, no tanto a la manera de Terminator sino, simplemente, mediante la manipulación de los humanos. “No es determinista; depende de las decisiones que adoptemos -dijo Harari-. Tenemos que entender que existe un potencial totalitario en la IA, a diferencia de cualquier otra cosa que hayamos visto hasta ahora. La diferencia entre regímenes autoritarios y regímenes totalitarios es que los primeros controlan la esfera política y la gente aún tiene su margen; los totalitarios intentan controlar todos los aspectos de la vida. Hasta Hitler y Stalin se toparon con límites a la hora de controlar a toda la ciudadanía, pero la IA no necesita agentes para controlar a todos los humanos. Hay teléfonos inteligentes, cámaras, sistemas de reconocimiento facial y de voz. No se necesitan analistas de informes. La IA puede gestionar una cantidad de información enorme y reconocer patrones. Esto ya esta sucediendo; en Israel ya se está usando en los territorios ocupados y vemos lo mismo en Irán”.
LA NACION no pudo saber cuál era la opinión de Harari sobre el proyecto del Presidente argentino de convertir el país en el “cuarto polo” de IA (que consumiría mucha energía y grandes cantidades de agua dulce) y de gestionar el Estado con la ayuda de la IA.
A diferencia de algunos presidentes electos, Harari asigna gran importancia al periodismo. “Los periodistas y la prensa desempeñan un papel clave en la actualidad -consideró-. La democracia es una conversación, mientras que dictadura es cuando alguien dicta. Democracia es cuando la gente habla entre sí e intenta llegar a un acuerdo. Hasta la llegada de la prensa, la democracia a gran escala era imposible. Una conversación a gran escala fue posible gracias a la llegada de la tecnología de la información moderna y el primer elemento es el diario. Luego llegaron el telégrafo, la radio, la televisión. Sin estas tecnologías no hay conversación pública”.
Para Harari, mucha gente confunde la democracia con las elecciones. “Las elecciones son un mecanismo muy importante de la democracia pero no son la democracia, como hemos visto en Venezuela recientemente o en Corea del Norte -graficó-. Pueden celebrar elecciones allí, ¿y qué? Eso no los convierte en países democráticos. Una característica clásica de la democracia es que un error puede detectarse y corregirse, incluso los del gobierno. En la dictadura no se puede hacer eso; Vladimir Putin no va a reconocer que ha cometido un error. Se necesitan medios independientes para exponer las mentiras del gobierno y ese rol es esencial. El intercambio de mentiras y fantasías no es una conversación”.
“Ahora el poder está en las manos de los grandes gigantes tecnológicos y las redes sociales -sostuvo-. Y en manos de sus algoritmos. Hay un debate enorme sobre la responsabilidad de estos gigantes, y cuando se los acusa de algo, hablan de la libertad de expresión. ‘No queremos censurar a nadie’, alegan. Y estoy de acuerdo con eso. Pero el problema no son los contenidos producidos por los seres humanos sino las decisiones editoriales de los algoritmos. Una persona puede publicar un mensaje falso o de odio, y ese no es el problema. Pero si el algoritmo corporativo toma la decisión de diseminar contenidos violentos o falsos, para que la gente pase más tiempo en la plataforma, y por ende para que la empresa gane más dinero, las empresas son responsables”.
Harari se mostró de acuerdo con Mark Zuckerberg y Musk en tener cuidado a la hora de censurar a los usuarios que publican noticias falsas. “La gente tiene derecho a la estupidez o la mentira; forma parte de la libertad de expresión, pero el tema principal no son las fake news de las usuarios sino los algoritmos de las corporaciones, porque el modelo de negocio de estas empresas se basa en la implicación. Quieren que haya más gente en la plataforma, por más tiempo. Cuanto más gente lo hace, recaban más datos y pueden vender más anuncios. Tienen todo el interés del mundo en capturar la atención de la gente y la forma más fácil de hacerlo es pulsar el botón del odio, el miedo y la rabia. Esto hace que la gente se implique. Pero esto no es libertad de expresión, es harina de otro costal”.
Harari no cree que solo la extrema derecha puede hacer uso de estas nuevas tecnologías en beneficio propio. “Sin duda en muchos países lo vemos, pero la extrema izquierda puede hacer lo mismo. Hugo Chávez y Nicolás Maduro no venían de la extrema derecha. Los líderes populistas desconfían de la verdad y de las instituciones creadas por la sociedad para identificar y promover la verdad. Extrema derecha e izquierda comparten una mirada cínica: creen que lo único que importa es el poder. Lo vemos cuando escuchamos a Trump, pero también a la extrema izquierda. Si no se puede confiar en ninguna institución para que te diga la verdad, entonces todas las instituciones colapsan y el único régimen que sobrevive es la dictadura. La democracia se basa en la confianza; la dictadura, en el terror”.
“No todo el mundo está obsesionado con el poder ni es lo único que les interesa a las personas; todos anhelamos la verdad; sin verdad, no podemos ser felices”, afirmó. Observó que líderes como Putin, Maduro o Benjamin Netanhayu no parecían “personas muy felices”.
“La IA también puede salvar vidas -reconoció, al final de una hora de conferencia-. El libro se centra en los peligros de la IA. Los filósofos, académicos y pensadores debemos centrarnos en la parte oscura. No queremos detener la evolución de la IA, sino arrojar luz en el lado oscuro para que esta tecnología sea más segura. Con los autos y los fármacos pasa lo mismo. No se pone un vehículo en movimiento sin tomar precauciones”.
Cuatro ideas centrales de Harari en “Nexus”
- “Tradicionalmente, IA ha funcionado como acrónimo de ‘inteligencia artificial’. Pero, por razones ya evidentes a partir de lo que se acaba de exponer, quizá sea mejor pensar en ella como en un acrónimo de ‘inteligencia ajena’. A medida que evoluciona, la IA está convirtiéndose en algo menos artificial (en el sentido de depender de diseños humanos) y más ajeno”.
- “Aunque Google y ByteDance no tengan presencia en Uruguay, el hecho de que los ciudadanos uruguayos hagan uso de sus servicios online hace que deban someterse a las leyes tributarias de allí. Así como Shell y BP pagan impuestos en los países de los que extraen petróleo, los gigantes tecnológicos deben tributar en los países de los que extraen datos. Sin embargo, un sistema tributario que solo sabe gravar dinero pronto quedará obsoleto, pues hay innumerables transacciones que ya no implican el intercambio de dinero. En una economía basada en datos, en la que el valor se almacena en forma de datos y no en forma de dólares, limitar el gravamen al dinero distorsiona el panorama económico y político […]. Los Estados llevan miles de años gravando dinero. No saben cómo gravar información…, al menos, no todavía”.
- “La historia de regímenes que emplean la etiqueta de ‘terrorista’ para referirse a todos y cada uno de sus opositores es amplia. En la Unión Soviética, cualquiera que se opusiera al régimen era un terrorista En consecuencia, en lugar de hechos objetivos, cuando una IA considera que alguien es un terrorista podría estar reflejando prejuicios ideológicos. La capacidad de tomar decisiones y de generar ideas es inseparable de la de cometer errores. Incluso si no se cometen errores, la capacidad sobrehumana de los algoritmos para reconocer patrones en un océano de datos puede sobrecargar el poder de numerosos actores malignos, desde dictaduras represivas que buscan identificar disidentes hasta estafadores que buscan identificar objetivos vulnerables”.
- “En un mundo en el que los humanos vigiláramos a otros humanos, la privacidad se vería perjudicada. Pero, en un mundo en el que los ordenadores vigilaran a los humanos, la privacidad podría ser completamente aniquilada por primera vez en la historia. […] La era posprivacidad se está estableciendo en países autoritarios que van desde Bielorrusia hasta Zimbabue, así como en metrópolis democráticas como Londres o Nueva York. En unos años, muchos humanos podríamos estar viviendo bajo regímenes de vigilancia total que harían de la Rumanía de Ceauşescu una utopía libertaria”.
Traducción de Joandomènec Ros
Otras noticias de Arte y Cultura
- 1
El director del Museo de Bellas Artes actúa en “Queer”, la adaptación de la novela del ícono contracultural William Burroughs
- 2
Murió Beatriz Sarlo a los 82 años
- 3
“Blackwater”: la saga matriarcal de terror gótico que es un fenómeno global
- 4
El legado de Beatriz Sarlo se define entre el exmarido y los discípulos de la intelectual