Como ocurre con cada desarrollo técnico, desde la Revolución Industrial para acá, se vende la IA como un avance sin costos; pero ChatGPT, Dall-E y otros modelos generativos están barriendo muchos pecados debajo de la alfombra
- 12 minutos de lectura'
Todas las tecnologías desarrolladas en los 350.000 años que lleva nuestra especie en este planeta tienen un costo. El mito de Prometeo es una metáfora irrefutable; el titán que nos concedió el fuego fue atormentado eternamente por un Zeus furioso.
En la práctica, las cosas son menos poéticas, aunque no menos trágicas. Nuestra extraordinaria capacidad de abstracción, combinada con nuestro legendario ingenio, nos ha provisto de toda clase de inventos y técnicas, pero ninguna tecnología es inofensiva. Todas acarrean un costo, que siempre es social. De allí el primer recaudo para los párrafos siguientes. El que la inteligencia artificial (IA) tenga un lado oscuro no quiere decir que sea la mala de la película. En este aspecto no se diferencia en nada del motor de combustión interna, el arco y la flecha o la energía nuclear, que se usa tanto para la medicina como para la guerra.
Es decir, las consecuencias no deseadas del progreso técnico son una regla de juego. El verdadero peligro está en no advertirlas a tiempo. Si hubiéramos atendido, en el siglo XIX, las palabras de Alexander von Humboldt, Eunice Newton Foote, John Tyndall y Svante Arrhenius, no estaríamos ahora ante a una crisis climática cuyo resultado es incierto y que ya cuesta decenas de miles de vidas cada año. Solo en la ciudad de Maricopa, en Phoenix, Estados Unidos, hubo el año último 645 muertos por las olas de calor.
Así que la intención de esta nota está lejos de demonizar a ChatGPT o proponer la erradicación de la IA. Otra de las reglas de este juego es que las nuevas tecnologías, una vez que se incorporan al uso público, ya no pueden retirarse del escenario, salvo en regímenes distópicos y totalitarios que, por fortuna, tienden a ser minoría.
La inteligencia artificial generativa (IAGen) está, desde el 30 de noviembre de 2022, instalada entre nosotros, y seguirá aquí mucho tiempo; más aún, se encuentra recién en sus albores. Como pasó con las primeras computadoras personales o con la imprenta de tipos móviles de Gutenberg, la IA tiene por delante sobre todo futuro, se perfecciona a velocidades incomprensibles y la veremos hacer cosas que nos dejarán boquiabiertos. Se infiltrará en cada actividad humana (ya lo está haciendo) y lo que hemos presenciado hasta ahora, que de por sí es sorprendente, es tan solo el principio.
Pero seríamos bastante irresponsables si, una vez más, ignoramos su lado oscuro. Por mucho que la industria (OpenAI, Microsoft, Meta, Anthropic, Nvidia, Intel, AMD y Google, solo para empezar) la presenten cromada, reluciente y aséptica, los modelos de lenguaje como GPT y sus pares (Gemini, Llama, Claude), así como los modelos para generar imágenes (Stable Difussion, Dall-E, Midjourney), tienen un costado poco conocido que oscila entre desagradable y perturbador.
Redes neuronales
La IA es un campo del conocimiento humano al mismo tiempo antiguo y vasto. Hay por lo tanto muchos métodos, una enorme cantidad de disciplinas y miles de posibles aplicaciones. La mayoría precede al innegable protagonismo actual de ChatGPT. Pero son las nuevas formas de IA, llamadas generativas, las que hoy acaparan la atención del público. Se las llama generativas porque pueden generar texto, imágenes, sonido, video y música a partir de una orden (prompt, en la jerga) del operador.
Lo que han logrado es extraordinario. Los modelos masivos de lenguaje (LLM, por Large Language Model) son capaces de expresarse en lenguaje natural tan bien como los humanos. Responden preguntas, resumen textos, traducen, incluso analizan o argumentan. Cometen errores, por supuesto, y esas fallas tienen su origen en el tipo de tecnología que usan, por lo que es muy probable que veamos sucesivas y constantes mejoras en este sentido, y también errores más riesgosos. No hay tecnología libre de fallas, y los LLM no son la excepción. Lo mismo ocurre con los modelos que producen imágenes y videos. En conjunto, son la nueva disrupción que la industria venía esperando desde hace al menos una década (desde el iPhone y las redes sociales para acá, digamos).
No entraremos en los detalles técnicos, pero este tipo de IA se basa en redes neuronales que pueden producir y analizar lenguaje, imágenes y sonido (y por lo tanto, también video). No asombra que nos tengan así de encandilados y que muchas veces le terminemos pidiendo peras al olmo. Hace exactamente un año, dos abogados de New York, Steven Schwartz y Peter LoDuca, fueron multados por el juez distrital Kevin Castel con 5000 dólares por haber presentado jurisprudencia falsa generada por ChatGPT. Es posible que los abogados no supieran los complejos vericuetos de estas tecnologías y creyeran en lo que la industria promete (pero que siempre relativiza en los términos y condiciones). De ser así, pasaron por alto que el modelo conversacional con el que interactuamos (el de ChatGPT, en este caso) hará todo lo posible por responder nuestras consultas. Incluso si tiene que inventar una respuesta (alucinar, en la jerga).
Pero estos traspiés, de los que hubo muchos en el último año y medio, están lejos de ser el lado oscuro de la inteligencia artificial generativa. Hay cosas mucho peores.
Vulnerables y relegados
El lado más oscuro de la IA es, por lejos, el costo humano. Cuestionable e inmoral, la industria ni lo menciona ni hace nada contundente para aliviar sus consecuencias. No es un costo nuevo en el rubro. Ocurre algo semejante, posiblemente peor, con la extracción de cobalto, un elemento clave en la electrónica (el 40% se usa en las baterías de los autos eléctricos). Los mineros trabajan en condiciones inhumanas, sus salarios son ínfimos y las consecuencias para su salud (incluso para las de sus familias), gravísimas.
En el caso de la IA, este costo viene de un lado inesperado, pero no sorpresivo: la mente. Aunque originalmente los modelos de lenguaje y las redes neuronales requerían un descomunal trabajo humano para etiquetar los corpus de datos con los que se los entrenaban, el desarrollo de los transformadores (una tecnología desarrollada por Google en 2017; es la segunda T en ChatGPT) hizo que las redes neuronales pudieran entrenarse con datos crudos, sin etiquetar. Pero, incluso así, la mente humana sigue siendo irreemplazable para determinar si un contenido es inaceptable para alimentar la IA. Así, el discurso del odio o las imágenes de matanzas, violaciones o tortura deben ser eliminadas antes de que la IA tome contacto con esto. O estaremos creando un monstruo.
Es un trabajo horrendo que, como con la extracción del cobalto, la industria le encargó a las poblaciones más vulnerables, en especial en África. Hoy se sabe (aunque no era difícil de anticipar) que una persona expuesta a esa avalancha de mensajes, imágenes y videos aberrantes sufrirá consecuencias psíquicas devastadoras. La industria de la IA barre bajo la alfombra el efecto que entrenar las redes neuronales tiene sobre estos trabajadores.
Lejos del Silicon Valley y casi sin voz, solo un puñado de medios dieron a conocer el costo humano de la IA (entre otros, LA NACION). Uno de estos trabajadores, un keniano llamado Mophat, le dijo a la BBC: “Sentí que mi vida entera se terminaba, y que me dejaba sin esperanza alguna”. Mophat había sido contratado por una compañía llamada Sama, que a su vez fue subcontratada por OpenAI para entrenar a ChatGPT. Un mes antes, el Wall Street Journal había informado sobre la misma situación. Un mes después, The Guardian se hizo eco del asunto.
Mophat y otros trabajadores se propusieron en su momento que el parlamento de Kenia regulara la actividad de las compañías de tecnología en el país. Pasó casi un año antes de que los legisladores pidieran investigar el asunto, que también incluye la moderación de redes sociales como, por ejemplo, TikTok, donde es menester bloquear publicaciones del todo desquiciadas.
Mientras tanto, la IA es celebrada, en particular por el marketing de compañías como OpenAI, Google y Meta, como si fuera por completo inofensiva. Lo que nos lleva a otro de los lados oscuros de la IA: la calidad de los corpus que se usan para entrenarla.
¿De qué esta hecha la IA?
En 2016, Microsoft lanzó en Twitter un bot de inteligencia artificial llamado Tay. Dieciséis horas después, la compañía debió cerrar el servicio. Tay, con la inocencia de una red neuronal recién nacida, compró todos los lemas extremistas de los trolls, les respondió en la misma tónica (Tay estaba programada para imitar el comportamiento humano) y muy pronto estaba asegurando que “el Holocausto había sido un invento”. Así, a los golpes, Microsoft aprendió que no era tan simple educar a un recién nacido. Aunque fuera un bot. Tuvo un segundo intento, una semana después, con resultados no mucho más edificantes. Tay no era, todavía, el mismo tipo de IA que ChatGPT. Pero en ambos casos, la mente sintética está hecha de lo que le damos de comer.
O sea, la calidad de las respuestas de la IA va a depender en gran medida de la calidad del corpus con que se la entrenó. Y ese es precisamente el problema. ChatGPT y todos los demás modelos de lenguaje en los que a veces confiamos a ciegas se han entrenado con texto e imágenes tomados de internet. Parte de ese material es confiable. Parte, no. Los razonamientos de la red neuronal se basan en lo que ha leído en Twitter o Reddit, donde a veces los debates están sólidamente construidos y, a veces, se basan en falacias flagrantes.
Al revés de lo que ocurriría con una persona, el único entrenamiento de que dispone un sistema de inteligencia artificial es su entrenamiento sobre la base de ese corpus de texto e imágenes. Carece de instinto de supervivencia, de deseos, de consciencia, de valores. Así que le faltan los contrapesos que le permitan comprender lo que está diciendo; es lo que sostiene Jeff Hawkins, de la compañía de IA Numenta. Es tan delicado el asunto que Ellie Pavlick, científica de la computación de la Universidad de Brown, se dedica precisamente a tratar de determinar si la IA comprende lo que dice.
Frente a un error, si el modelo conversacional del bot está diseñado para ser humilde (es el caso de ChatGPT), aceptará mansamente que se equivocó (y aprenderá de esa falla). Si no (y hemos visto esto incluso con ChatGPT 3.5, que está diseñado para ser condescendiente), podría insistir con una intensidad alarmante. Preocupa, si tomamos en consideración que hace poco más de un mes Estados Unidos tuvo que instar a Rusia y China a que la IA no quede a cargo del control de las armas nucleares.
La calidad del corpus tiene, sin embargo, un precio, que las compañías de IA recién ahora aceptan pagar, por medio de acuerdos –que para algunos analistas son leoninos– con medios como The Atlantic, AP, News Corp. y Vox, entre otros. También, con redes sociales como Reddit o servicios como Slack, lo que suscita un costo adicional: la privacidad. En general, el copyright y la privacidad han caído víctimas de esta tecnología como antes pasó con las redes sociales.
La factura ambiental
Quedan todavía dos asuntos en la lista de lo que no se dice (o que la industria prefiere no revelar) sobre la IA.
El primero es el consumo energético. En un mundo jaqueado por el cambio climático, la IAGen consume una enormidad de energía. Un informe divulgado en octubre por Scientific American estima que el millón y medio de servidores despachados por año solo por Nvidia (una de las compañías que más ha crecido gracias al boom de la IA) requiere 85,4 TeraWatts de electricidad cada año, trabajando a su máxima capacidad. Es lo mismo que consume Países Bajos en igual período. El estudio se originó en el banco central de ese país, de la mano del científico de datos Alex de Vries.
En su momento, el equipo de ética de IA de Google (que luego fue desmantelado) informó que entrenar un sistema como ChatGPT produce 284 toneladas de dióxido de carbono. Un auto convencional produce unas 4 toneladas por año.
Lo que consume mucha electricidad, por el principio de conservación de la energía, disipa mucho calor. Ese calor debe enfriarse. Y eso se hace, en general, con agua. Es otro costo de los centros de datos (que incluyen no solo la IA, sino todo lo que hacemos en internet), uno tan crítico que Microsoft está ensayando y se propone seriamente colocar sus data centers bajo el mar.
El tema del agua tocó cerca cuando hace justo un año se produjo en Uruguay una fuerte polémica por la instalación de centros de datos de Google, que debió informar, según publicó el diario El Observador, cuánta agua usarían, justo cuando Montevideo sufría una crisis hídrica severa. El dato es estremecedor: 3,8 millones de litros por día en una primera etapa; después, el doble. Actualización: Google se comunicó conmigo para informarme que el proyecto del data center en Uruguay fue cambiado para que use aire en lugar de agua, y que por lo tanto tendrá el consumo de agua normal de una sede de oficinas. El que use aire significa que, en efecto, consumirá mucha menos agua, pero la nueva metodología emplea ventiladores, lo que de todos modos incurre en un uso mayor de energía. Es una ley universal de la física, y nadie, ni siquiera Google, puede sortearla.
Con todo, los costos ecológicos de la IA podrían verse morigerados por el aporte enorme que estas tecnologías están haciendo para comprender y revertir el cambio climático. El equilibrio, sin embargo, parece, por ahora, esquivo.
Los datos vertidos hasta aquí pueden inspirar todo tipo de reacciones, desde la más optimista hasta la más apocalíptica. Lo que no deberíamos volver a hacer es ignorar los costos del progreso técnico, porque, como Prometeo, tarde o temprano alguien los va a pagar.