Polémica. ¿Debe el ChatGPT pagar derechos de autor por sus contenidos?
La millonaria demanda presentada por The New York Times a OpenAI plantea un complejo dilema por el uso que la inteligencia artificial hace de textos ajenos
- 13 minutos de lectura'
The New York Times (NYT) se ha convertido, a sus 172 años, en el primer diario en demandar a OpenAI por usar sin permiso sus artículos para entrenar su ahora archifamoso modelo masivo de lenguaje, GPT. ChatGPT, que es el nombre con el que se asocia a esta empresa fundada en 2015 por, entre otros, Sam Altman y Elon Musk, es en realidad un bot conversacional que nos permite “hablar” con GPT.
La demanda, que acusa a OpenAI de aprovechar la inversión del NYT en periodismo para informar a los usuarios de ChatGPT, vino a cerrar el turbulento 2023 de inteligencia artificial (IA). Pero el venerable diario neoyorquino no está solo. Varios escritores, como el autor de la saga en la que se basó Game of Thrones, George R. R. Martin, y la escritora, actriz y comediante Sarah Silverman ya habían iniciado demandas semejantes a OpenAI y su principal accionista, Microsoft. Sí, la misma de Windows y de Office.
En línea con esto, Beryl Howell, jueza distrital de Columbia, Estados Unidos, le dio la razón a la Oficina de Copyright de ese país respecto de que la IA no puede poseer los derechos de propiedad intelectual de una obra; oportunamente, le había denegado ese derecho a Creativity Machine, un algoritmo creado por Stephen Thaler. La IA tampoco puede poseer patentes, según sentenció en abril de 2020 la Oficina de Patentes estadounidense. El criterio, sin embargo, no es unánime. Por ejemplo, en Australia y Sudáfrica, los jueces le concedieron a Creativity Machine derechos sobre sus obras.
La demanda de The New York Times (que calcula miles de millones de dólares en daños) puso al rojo el debate sobre IA y copyright justo a fin de año, y aun así no pasó inadvertido. Es que con casi cualquier otra tecnología no habría ninguna duda sobre quién es el autor de una obra. El horno, por imprescindible que resulte, no es el creador del pastel. Un fabricante de pinceles o de violines no reclaman ni siquiera un poco de reconocimiento por las obras de un Picasso o un Vivaldi. Esto, a pesar de que cualquier músico sabe que hay instrumentos más inspiradores que otros.
Pero una vez más las nuevas tecnologías, nacidas de una novedad insólita en la historia humana, ponen en jaque el sentido común. Esa novedad es que los ingenieros le han enseñado a la electrónica a hacer aritmética. Con este as en la manga, fuimos capaces de ejercer la matemática a una velocidad inédita en la historia de la civilización. Una persona, con lápiz y papel, necesitaría 65.000 años para hacer la misma cantidad de aritmética que una notebook hace en un segundo. Esa notebook hará 5000 millones de años de cálculo manual en el curso de un día. Es la edad que tiene nuestro sistema solar.
Gracias a esta velocidad para sacar cuentas, todo aquello que puede ser interpretado, evaluado, representado o simulado mediante funciones matemáticas cobró un protagonismo arrollador. En la década del 70 se le sumó la miniaturización, que, en gran medida gracias a la propia computación, logró en las cinco décadas siguientes escalas que desafían la imaginación. Finalmente pudimos empezar a emular algunas tareas humanas mediante una familia de algoritmos conocidos genéricamente como inteligencia artificial.
Un dato, para dar una dimensión del impacto de la miniaturización en estas disciplinas: ENIAC, la primera computadora electrónica digital programable de propósito general (tu teléfono es una computadora electrónica digital programable de propósito general) empleaba unas 18.000 válvulas de vacío y pesaba 27 toneladas. Eso fue en 1946. Un celular lleva hoy en su interior un chip con unos 16.000 millones de transistores y pesa menos de 200 gramos.
Mentes sintéticas
La historia de la inteligencia artificial es extensa y accidentada. Lo que la ha convertido en la diva de la segunda década del siglo XXI es su capacidad para reproducir imágenes y texto originales. Original no significa, en este contexto, ni entretenido ni creíble ni cierto. Ni que tenga sentido común. Significa que ese texto o esa imagen en particular es generado de forma autónoma por una red neuronal (más sobre esto enseguida) sobre la base de un entrenamiento previo basado en un corpus más o menos grande de datos; y significa, prima facie, que no existía de antemano. La más conocida de estas redes neuronales es hoy GPT, siglas de Generative Pre-trained Transformer.
Simplificando mucho, una red neuronal es un conjunto de algoritmos que simula la conexión entre un número de neuronas; los parámetros de esa red neuronal establecen, según el valor que tengan (digamos, entre 0 y 1), si esa conexión será excitatoria o no. Así, es posible entrenar a la red neuronal para que, por ejemplo, reconozca números manuscritos. Alcanza para esto con media docena de parámetros. Por contraste, la versión pública sin cargo de ChatGPT (la 3.5) permite interactuar con una red neuronal de 175.000 millones de parámetros. Esta vastedad causa la impresión de que hay alguien del otro lado.
Las redes neuronales se entrenan (de allí lo de pre-trained) con un corpus de texto previamente etiquetado por personas. Aunque OpenAI no ha develado el tamaño del corpus de GPT 3.5, su antecesor usaba 500.000 millones de tokens (fragmentos significativos de texto en contexto); se estima que el corpus de la versión 4 (cuyo costo es de 20 dólares por mes y hay lista de espera) está en el orden de los 12 ceros. De allí lo de “grandes modelos de lenguaje” o, para decirlo con más elegancia, “modelos masivos de lenguaje”, o LLM por sus siglas en inglés.
Pasado en limpio: la inteligencia artificial que le preocupa a los escritores y al NYT es la denominada generativa, que solo existe porque tenemos una enormidad de texto y de imágenes online. De no haber sido por internet, ChatGPT o Stable Difussion (un modelo de IA para generar imágenes) nunca habrían existido.
Fue sin intención
Volvamos a la demanda de The New York Times. ¿ChatGPT corta y pega? No, y ese es el problema. Estos modelos masivos de lenguaje se entrenan para que produzcan texto sintácticamente correcto y, dentro de sus posibilidades, basado en información cierta. ¿Dentro de sus posibilidades? ¿Cómo es eso?
La cuestión de fondo es aquí la manera en que funcionan los modelos masivos de lenguaje. Al revés de lo que ocurre con nuestras conciencias –cualquiera sea la definición que tratemos de darle a la conciencia–, un modelo de lenguaje no tiene la intención de decir lo que dice. Un ser humano produce texto porque quiere decirlo, porque está obligado a decirlo o porque no puede evitar decirlo; salvo síndromes muy claramente definidos (el de Tourette, por ejemplo), no decimos cosas involuntariamente. Ni tampoco repetimos como loros aquello que aprendimos que es adecuado al contexto. Un modelo de lenguaje, en cambio, produce texto estadísticamente. Por eso se los llama también loros estocásticos.
Su entrenamiento le enseña, sobre la base de cientos de miles de millones de ejemplos (entre otros, las novelas de Martin o las notas de The New York Times, pero también toda la Wikipedia en inglés, los hilos de Twitter o los debates en Reddit), qué decir frente a cada prompt. Prompt es lo que le preguntamos a ChatGPT. Lo que le pedimos que escriba. Dado un cierto contexto (los contextos son siempre clave en este asunto), el modelo de lenguaje responderá lo que su red neuronal le indica que estadísticamente es lo más adecuado. De ninguna manera tiene la intención de decir algo. Ni es fruto de la inspiración o la emoción. Una vez les preguntaron al director ejecutivo y a la directora de tecnología de OpenAI (Sam Altman y Mira Murati, respectivamente) qué diferenciaba a la IA de los humanos. El primero dijo “la emoción”; la segunda, “el humor”.
Exacto. ChatGPT puede contar chistes y hasta plantear el argumento para una comedia romántica. Pero no está sintiendo nada de nada. Ni le causan gracia sus humoradas. Más aún, en septiembre, dos investigadores alemanes, Sophie Jentzsch y Kristian Kersting, descubrieron que ChatGPT tiende a repetir siempre los mismos 25 chistes.
Derecho a réplica
De modo que la IA y los humanos funcionamos de maneras muy diferentes para llegar a lo mismo: un cierto texto o a una cierta imagen. A nosotros nos guía la voluntad y actuamos desde un lugar que, por donde se lo mire, está ausente en la IA: nuestra conciencia. La IA, por su parte, funciona estadísticamente. Podríamos debatir si en algún punto de la neurofisiología humana acontecen fenómenos estadísticos, pero prueben de decirle a su cónyuge, en un aniversario de casados, que dado el contexto es estadísticamente correcto decir “Felicidades, mi amor”. El resultado no va a ser lindo.
Sin embargo, tenemos algo en común. Ambas mentes, la sintética y la humana, han sido entrenadas con un corpus de datos. Lo dijo, entre otros, J. R. R. Tolkien, el autor de El Señor de los Anillos: todo lo que leamos, todo lo que oigamos y todo lo que experimentemos se convertirá en el humus en el que germinará nuestra obra.
No puede uno estar más de acuerdo. De algún modo, que todavía elude el conocimiento científico, la mente del artista crea algo a partir de todo lo que esa persona atravesó, consciente y quizá también inconscientemente. Lo que creamos es en muchos sentidos nuevo, pero no alcanza con que sea nuevo. Se supone (se espera) que el autor aporte también sentido. O, por lo menos, ese es el acuerdo entre todas las partes. No existe ningún otro ejemplo en la naturaleza de una especie que cree cosas solo por amor al arte y las ciencias.
Aparte de nuestras experiencias, los humanos nacemos con una cantidad de rasgos heredados. No somos una tabula rasa, como creyeron desde Aristóteles hasta Descartes. De forma análoga, una red neuronal también hereda sesgos y matices de sus programadores. ¿Es lo mismo? No, pero ninguna de las dos entidades parte de cero.
La cuestión es: ¿podrían los herederos de todos los libros que leyó George R. R. Martin demandarlo porque su mente fue entrenada sobre la base de esas obras? Es decir: ¿es igual el entrenamiento de una red neuronal que el de una mente humana? Definitivamente, no. ¿Pero es por esto una violación al derecho de propiedad intelectual?
Los mismos creadores de las redes neuronales saben (y confiesan) que dada la naturaleza masiva y estadística de estas tecnologías es imposible saber cuál va a ser exactamente el resultado de sus meditaciones sintéticas. Además, ¿las obras que escribimos no están destinadas también (y sobre todo) a que otros encuentren en ella un valor que perdure en el tiempo? Es así, ¿pero tiene asidero hablar de un subconsciente artificial, si sabemos que la IA carece siquiera de conciencia?
Precedentes
El planteo de The New York Times y de los autores es prístino. Una red neuronal es una maquinaria estadística cuyo combustible es el texto preexistente en internet. En el caso del NYT, además, hay sobre la mesa una enormidad de información obtenida trabajosamente por los periodistas de ese diario. OpenAI está valuada en 90.000 millones de dólares. Sin esos textos online, no valdría nada. Nada de nada. Por lo tanto, la compañía (cuya estructura societaria es algo compleja, pero que, como se dijo, tiene la espalda de Microsoft) debe pagar por ese combustible. Más aún cuando este año OpenAI firmó acuerdos con Politico, Bussines Insider y Associated Press, entre otros, para usar sus artículos para entrenar a GPT.
Pero estos acuerdos no necesariamente significan que lo que produce GPT no aporte algo nuevo a los textos que usó en su entrenamiento, lo que le garantizaría lo que en la legislación estadounidense se conoce como fair use (uso justo). GPT produce en general textos originales con diversos aportes (la síntesis podría ser uno de ellos), aunque también es capaz de emular a un Borges o a un Shakespeare con una candidez abrumadora. Hará en estos casos un papelón, porque, como escribió Ingenieros, “lo que tiende a parecer renuncia a ser”. Leí esta frase a los 15 años, en El hombre mediocre. La transfiero ahora de memoria a este texto, varias décadas después. Trabajo escribiendo notas. O sea que obtengo una renta de aquel entrenamiento. ¿Cuál es la diferencia de fondo con un modelo de lenguaje?
No me refiero en este punto a la forma en que producimos texto; ahí el abismo es ostensible. Me refiero al entrenamiento en sí. ¿Cómo establecer cuándo es lícito usar una libro o un artículo periodístico? Hasta ahora, lo único que estaba prohibido era copiar la obra de forma literal, atribuirse su autoría, publicar una obra modificada o derivar otra del universo creado por el autor original. La IA no hace ninguna de estas cosas, ¿pero lo que hace es lícito? Para algunos, sin embargo, todo el debate tiene que ver con otra cosa: la creación humana versus versus la creación automatizada. ¿Pero es lo mismo el crear humano que lo que hace un modelo de inteligencia artificial generativa?
Terreno virgen
No tengo las respuestas. Nadie las tiene. Tampoco los jueces las van a tener, incluso cuando dicten sentencia, porque estamos, una vez más, en terreno no cartografiado. La inteligencia artificial hace algo con el corpus de datos con que se la alimenta que era imposible hasta la aparición de las computadoras. Solo los humanos podíamos leer unos cuantos miles de libros, estudiar alguna disciplina y producir una obra. Ahora, la IA hace esto a una velocidad sobrehumana. ¿Pero esa razón viola la propiedad intelectual? ¿Y sigue siendo una obra equiparable a lo creado por humanos?
No lo vamos a saber hasta que los jueces no sienten jurisprudencia; e incluso así estaremos en terreno resbaladizo, porque la ley no anticipó la existencia de redes neuronales con cientos de miles de millones de parámetros alimentadas por billones de palabras, todo basado en supercomputadoras que consumen tanta electricidad como una nación. En este punto, uno se siente tentado de suponer que las decisiones que tomen los jueces tendrán consecuencias profundas. Pero es probable que antes de que la tinta en esas resoluciones se seque la tecnología haya vuelto a cambiar. Por ejemplo, y a modo de experimento mental: ¿qué pasaría si la IA empieza a entrenarse con obras creadas por la IA? Más todavía: ¿qué efecto tendrán estos litigios si la IA empieza (ya lo hace) a percibir el entorno por medio de visión y oído artificiales y a juzgarlo tal como aprendió a juzgar las cosas en los interminables debates de los foros públicos? Si tal cosa ocurre, el conflicto sobre el copyright se volverá obsoleto y tendremos uno nuevo, más serio, en ciernes.