La tecnología no es el problema de la IA, “es la política, estúpido”
En lugar de obnubilarse por los algoritmos, los expertos sugieren ocuparse de las estructuras de gobernanza que determinan el uso de la inteligencia artificial para reforzar su control y obtener mayor transparencia
- 6 minutos de lectura'
Una frase puede ser suficiente, a veces, para cambiar el curso de la historia. Durante la campaña presidencial de 1992 en Estados Unidos, el estratega político James Carville, del Partido Demócrata, logró centrar el debate en el punto más frágil del presidente republicano George H.W. Bush, que aspiraba a la reelección. Colgó un cartel en la gran sala de reuniones del estado mayor electoral demócrata con la leyenda “It’s the economy, stupid!”.
Para racionalizar las incertidumbres que provoca la inteligencia artificial, Carville aconsejaría hoy utilizar el eslogan: “It’s politics, stupid!”.
Los teóricos que actúan con sentido crítico sugieren no dejarse deslumbrar por la pirotecnia tecnológica y concentrarse en los aspectos esenciales: dejar de considerar a los gigantes de la big-tech simples empresas privadas en busca de beneficios y, por el contrario, valorar la importancia que tienen como actores políticos de primer orden mundial y poner el foco en la influencia social que tienen las nuevas tecnologías y fenómenos derivados, como las redes sociales, la big data y sobre todo ChatGPT.
El físico Stephen Hawking en 2014 y más recientemente el historiador israelí Yuval Noah Harari encendieron luces rojas sobre el peligro que representa el dominio que ejercen las principales corporaciones tecnológicas en inteligencia artificial: la recopilación de datos crea una “nueva forma de capitalismo donde los intereses privados a menudo reemplazan al bien público”. Tim Wu, profesor de la Facultad de Derecho de Columbia, cree incluso que existe un fuerte riesgo de que esos grupos utilicen su virtual monopolio para “promover sus propias agendas políticas e ideológicas”. La tentación de convertirse en una suerte de contrapoder “podría fragilizar los procesos democráticos y los intereses esenciales de la sociedad”, indica en su libro The Curse of Bigness: Antitrust in the New Gilded Age (La maldición de la grandeza: antimonopolio en la nueva era dorada).
La socióloga Shoshana Zuboff describe esa amenaza en su libro La era del capitalismo de la vigilancia, donde afirma que el almacenamiento y el control de datos y los procesos algorítmicos que realizan las grandes corporaciones se efectúan sin ningún consentimiento de los individuos. “El verdadero drama –precisa– radica en la gobernanza de estos procesos y en la forma en que explotan los datos personales”. Al igual que Zuboff, numerosos teóricos argumentan que si bien los algoritmos y los métodos de producción de datos son importantes las estructuras de gobernanza que determinan su uso son cruciales y deben reforzar su control para obtener mayor transparencia, responsabilidad y consentimiento en la forma en que se implementan esos procedimientos. Ningún ser humano ha “dado su consentimiento a las formas en que estos algoritmos representan y afectan sus vidas”, insiste por su parte Frank Pasquale en La sociedad de la caja negra: los algoritmos secretos que controlan el dinero y la información.
Ese dilema no es insignificante. La tecnología es un vector crucial de todas las rivalidades políticas e ideológicas que se cruzan a nivel nacional, y de confrontación geoestratégica cuando se observa el fenómeno a escala global. El gran salto tecnológico occidental llega en un momento crítico en que China enfrenta dos desafíos simultáneos: frente a la ofensiva arrolladora de OpenAI (creadores de ChatGPT), Google (Gemini) y Meta (Llama), fue incapaz de proponer alternativas y debió aceptar la humillación de que el gigante Alibaba Cloud tuviera que recurrir a Llama como base para desarrollar su propio modelo. El régimen de Pekín posee suficientes talentos para desarrollar sus modelos de lenguaje, pero todas sus ambiciones se estrellan con las restricciones a los semiconductores impuestas por Estados Unidos. Sin esos recursos, aparece el segundo problema: más allá de la inteligencia artificial generativa, las limitaciones chinas comenzaron a penalizar las ambiciones de Pekín en el campo de los nuevos conflictos híbridos, que requieren ser dopados con IA. Esa amenaza latente se agudizó con la panoplia formada por la guerra en Ucrania, multiplicación de ciberataques, injerencias y big data. Esos campos de batalla requieren sistemas de explotación, tratamiento de datos en segundo plano y tecnovigilancia, sistemas fuertemente consumidores de alta tecnología y grandes capacidades de procesamiento.
La sombra de la política domina ese contexto. La importancia de los implantes cerebrales, los enjambres de minisatélites en el cielo de Ucrania o los cables submarinos no reside en su formidable desarrollo tecnológico. “Lo que interesa es que los colosos tecnológicos, como los magníficos siete que monopolizan la high-tech (Nvidia, Microsoft, Meta, Google, Amazon, Apple y Tesla), se convirtieron en los últimos años en actores dominantes del sistema, no solo económicos, sino también sociales, militares, políticos, ideológicos e institucionales”, explica la investigadora francesa Asma Mhalla, autora de Technopolitique. “La opinión de los gigantes de la tech –agrega– tiene un enorme peso político. Ahora son interlocutores ineludibles del poder y recibidos como jefes de Estado, y poseen la capacidad de influencia como para bloquear normas o promover regulaciones à la carte”. Elon Musk no se priva de exponer su opinión sobre el futuro de Taiwán, en contradicción con el Departamento de Estado, y predicar sus teorías neonatalistas del mundo.
Los sistemas de inteligencia artificial son políticos por tres razones. Primero porque encapsulan los valores y los sesgos de sus creadores. En el universo de la high-tech, los conceptores de esas tecnologías son ideólogos que comparten una concepción del futuro de la humanidad. La matemática Cathy O’Neil o la investigadora australiana Kate Crawford coinciden en evocar los “riesgos significativos que plantea la concentración del control de los sistemas de IA”, debido en particular a las ideologías y potenciales fanatismos de sus propietarios. Esos actores tecnológicos canalizan claramente una visión del mundo. El ChatGPT de Sam Altman tiene poco que ver con los objetivos políticos que se esconden en los intersticios del robot conversacional Grok de Elon Musk, concebido como un arma antiwoke y un instrumento para respaldar las ambiciones todopoderosas que inspiran al creador de Satlink y Neuralink. Como toda la tecnología dual, idónea para el doble empleo civil y militar, los sistemas de inteligencia artificial pueden ser –por último– tanto instrumentos de soft power, es decir, vectores de influencia, como de hard power, armas que en manos inescrupulosas alcanzan una proyección de potencia al servicio de las grandes corporaciones que controlan. A veces, aunque no siempre, esas ambiciones coinciden con los intereses de los Estados.
Lo que está en juego no es la posesión de un territorio o la influencia en un mercado bursátil, sino el control de nuestros cerebros y, a partir de ahí, del mundo. Esa perspectiva representa uno de los desafíos más serios que debió enfrentar la humanidad en toda su historia. Un hombre que maneja los principales data centers del mundo, una de la mayores redes sociales, que comenzó a experimentar la implantación de neuronas artificiales y que mantiene una constelación de 12.000 satélites de comunicaciones orbitando en torno del planeta, no tendría –en principio– demasiados obstáculos en lanzarse a una aventura de conquista inédita de poder.
Especialista en inteligencia económica y periodista