En 1956, como el título de ese workshop que había organizado no parecía estar funcionando, creó un nombre que ahora está en las noticias cotidianas; con padres afiliados al Partido Comunista, se hizo republicano cuando presenció la invasión de Checoslovaquia por las fuerzas soviéticas. Su polémica con John Searle sigue estando en el corazón del debate sobre las posibilidades de la IA hasta hoy
Hace casi 70 años, John McCarthy acuñó la frase inteligencia artificial.
OK, vamos de nuevo, porque eso sonó rarísimo, dicho así, sin anestesia. ¿En serio hubo un científico que en 1956 creó esa combinación de palabras que hoy está por todos lados y nos tiene encandilados? Así es, y McCarthy fabricó la frase “inteligencia artificial” por la misma razón que los periodistas invertimos mucho tiempo en buscar un buen título. El nombre original con el que pretendía atraer estudiantes para su proyecto de verano (y por lo tanto conseguir también fondos) era Automata Studies (traducido: Estudios sobre Programas Autómatas). Obvio, no funcionó. En cuanto le cambió el nombre por Inteligencia Artificial (IA), aparecieron los interesados y el dinero, y puso en marcha esta disruptiva disciplina que hoy está revolucionando el mundo.
Así que sí, en 1956 John McCarthy inventó la frase Inteligencia Artificial. Ahora vamos a ver cómo llegó hasta ahí y todas las otras cosas que construyó casi (casi, insisto) de la nada en el camino, incluido un épico debate con el enorme John Searle que, todavía hoy, divide las aguas en estas disciplinas. La grieta de la IA, podríamos llamarla. Me inclino a opinar como Searle (al que estudié como lingüista), pero me temo que, como suele ocurrir, la verdad está más bien en el medio. O en el lugar menos esperado. Ya volveré sobre esto.
De comunista a republicano
John nació en Boston, Massachusetts, de padre irlandés y madre lituana, el 4 de septiembre de 1927. La pasaron muy mal durante la Gran Depresión (es decir, la década del ‘30), y ambos, John Patrick (el papá) e Ida (la mamá) se afiliaron al partido comunista. Así, el pequeño John dio sus primeros pasos en el estudio de las ciencias con libros de divulgación que habían sido originalmente publicados en la Unión Soviética (URSS). Con los años, aprendería el ruso hasta hablarlo correctamente, viajaría a la URSS y se haría amigos allí. Hasta que conoció de cerca el otro lado del paraíso soviético y entonces no solo se alejó de esa ideología (McCarthy era un cruzado de la libertad de expresión), sino que se pasó al polo opuesto y se hizo republicano. La historia es un poco más complicada, pero, básicamente, McCarthy fue testigo, el 20 y 21 de agosto de 1968, de la invasión de Checoslovaquia por parte de cinco repúblicas soviéticas tras lo que se conoció como la Primavera de Praga. Le pareció una locura. A cualquiera en su sano juicio le habría parecido una locura. Tenía 41 años.
Veinte años antes de eso, un muy joven y ambicioso McCarthy fue admitido en el Caltech (el Instituto de Tecnología de California), que en ese momento les quedaba cerca (la familia debió mudarse muchas veces durante la Gran Depresión). En el Caltech asistió a una conferencia del genial von Neumann, y un poco esto selló su destino. La cosa venía por el lado de las computadoras.
Nómada como su familia, pasó del Caltech a Princeton, de Princeton a Stanford y de Stanford a Dartmouth, donde fue profesor auxiliar y donde acuñó la frase Inteligencia Artificial. Finalmente, cuando ese verano fundacional concluía, recaló en el Massachusetts Institute of Technology (MIT), donde se quedaría hasta su retiro. Por si alguien está pensando en Marvin Minsky, está en lo correcto; tiene que ver. Minsky fue de la partida en el taller que John hizo en el verano de 1956 en Dartmouth, y se sumó al equipo de McCarthy en el MIT en 1959. Todavía no se había inventado el láser ni había nacido Unix. Las computadoras personales estaban a más o menos 20 años en el futuro, y OpenAI se fundaría más de medio siglo después.
De todos modos, vale la pena aclarar algo aquí. La IA tiene muchos padres, madres, abuelas, abuelos, tía, tíos y demás. Para darse una idea, las redes neuronales (por citar solo una de las metodologías que conciernen a la IA hoy) tienen sus raíces en los planteos del filósofo y lógico Alexander Bain, en 1873, y del filósofo y psicólogo William James, en 1890.
Volvamos. Para el otoño de 1956 tenemos a un McCarthy que todavía no cumplió 30 años y que viene de fundar un taller de verano llamado Dartmouth Summer Research Project on Artificial Intelligence (ahí tienen la frase original en el contexto que la vio nacer), que tiene seis asistentes de tiempo completo (uno de ellos es Minsky) y que puede considerarse la cuna original de lo que hoy llamamos inteligencia artificial. Pero insisto, so pena de parecer demasiado meticuloso, con los numerosos orígenes de este conjunto de disciplinas a las que llamamos, en masse, Inteligencia Artificial.
Tropiezos
El taller de verano de Dartmouth tenía la intención de conseguir algo que, todavía hoy, 67 años más tarde, sigue siendo el Santo Grial de la inteligencia artificial. Es lo que se conoce en la jerga como AGI, por Artificial General Intelligence (inteligencia artificial general o generalista). Me he tomado la libertad de unificar para que las siglas no terminen siendo un amasijo incomprensible. En español deberíamos decir IAG. Pero las siglas AGI ya están muy instaladas, y encima tenemos el problemita de lo que se conoce como inteligencia artificial generativa, que suele abreviarse como GenAI, pero que de un modo u otro involucra la sigla G. Así que para no complicar las cosas, y para seguir con el uso más, difundido, llamaré AGI a la inteligencia artificial general o generalista. ¿Y qué es eso?
La idea en Dartmouth (y sigue siendo la misma en OpenAI hoy) era que al final las redes neuronales (o lo que usemos) iban a ser capaces de alcanzar una inteligencia equivalente a la humana, una que hasta un chico de tres años es capaz de desarrollar. Un chico solo necesita tropezarse una vez con un escalón, y luego puede aplicar ese conocimiento (ese nuevo átomo de inteligencia) a todo tipo de escalones, escaleras, peldaños y cordones de vereda. No importa si suben, bajan o si están hechos de madera o de concreto. Asimismo, puede soñar con escalones, imaginarlos, pensar en ellos, describirlos geométricamente, y hacer abstracciones y hasta metáforas (Hitchcock, digamos) con escalones.
¿Pero puede una máquina hacer algo así?
La forma en que se entrenan los modelos masivos de lenguaje (LLM, por sus siglas en inglés), como GPT, hace que tengan cierto barniz de inteligencia generalista. ¿Por qué? Porque han aprendido los elementos básicos del razonamiento humano en foros, hilos de Twitter y comentarios de toda clase. Sin embargo, hay al menos tres problemas con esta metodología. El primero es que los debates online no están libres de sofismas y razonamientos flojos de papeles. El segundo es que emular el razonamiento no significa por sí que algo esté razonando. Lo que me lleva al tercer problema, y para eso prepárense pochoclo y presenciemos el match McCarthy-Searle.
Es complicado
En el taller de verano de Dartmouth, luego de un par de meses de intentar buscar la AGI, McCarthy y el resto de los participantes del taller empezaron a darse cuenta de que las cosas no eran tan sencillas. La inteligencia artificial, como muchas otras disciplinas técnicas, había subestimado la inabarcable complejidad de la mente humana, un fenómeno que va más allá de la resolución de problemas.
Pasaron unos veinte años hasta que Searle hizo un planteo elemental: las máquinas no podrían alcanzar nada parecido a la inteligencia humana porque carecen de consciencia y de intención. Se establecieron así dos bandos: el de McCarthy (convencido de que era posible replicar las funciones de la mente mediante la electrónica y que la AGI sería el resultado inevitable) y la de Searle (que proponía que la inteligencia generalista humana solo es posible si proviene de esa entidad que llamamos humano, y que va mucho más allá de un cerebro con neuronas y un número escalofriante de conexiones llamadas sinapsis).
Si estás pensando en que en el fondo acá tenemos un problemita de definiciones, coincido enteramente. Lo ha dicho magníficamente Kevin Kelly en este artículo sobre el mito de una inteligencia artificial sobrehumana. En dos palabras, si no tenemos una buena definición de inteligencia, la frase “inteligencia artificial” no se refiere a nada demasiado concreto. Sigue siendo un buen título, como en 1956, pero le falta solidez.
A mi juicio –lo he puesto en varios artículos–, hay todavía una vuelta de tuerca en el debate McCarthy-Searle. Ambos tienen razón, desde mi punto de vista. El asunto es cuándo tienen tazón. Y de qué forma. Me explico: todo el organismo humano es inteligente, no solo el cerebro. Por ejemplo, el Efecto McGurk muestra que oímos un fonema de formas diferentes según veamos cómo posiciona la boca la otra persona al momento de pronunciarlo. La sílaba BA será interpretada como GA, FA o PA según veamos una grabación de alguien colocando los labios en diferentes configuraciones.
Aparte de la visión (y los demás sentidos), en nuestra inteligencia intervienen la formación, los sesgos, nuestros miedos, pulsiones y experiencias traumáticas; toda clase de experiencias, de hecho. A eso súmenle la inextricable y cambiante dinámica de los neurotransmisores y las hormonas, la propiocepción y, aunque la lista no termina acá, el hecho de que somos conscientes de quiénes somos y de que nuestro tiempo en el mundo es limitado. No pensamos en vacío, y en esto tiene razón Searle.
¿Pero qué pasaría si un día las máquinas fueran tan extraordinariamente complejas que fuéramos incapaces de trazar una línea clara entre el organismo vivo y el artificial? Subo la apuesta: ¿qué pruebas tenemos de que nuestros organismos no son el resultado de una antiquísima tecnología creada por una civilización que existió y desapareció hace 500 millones de años? Esperen, no me hizo mal la medicación: la ciencia ficción se lo ha preguntado más de una vez.
Concedido, es una hipótesis, pero con las computadoras cuánticas tocando a nuestra puerta y sensores cada vez más precisos, la posibilidad de que (no esta semana, ni el año que viene) las máquinas desarrollen sus propios fenómenos psíquicos no es por completo imposible. En eso tenía razón McCarthy.
El precursor
Debates aparte, y mientras los científicos siguen buscando que las máquinas alcancen la AGI, John fue un verdadero gigante de estas tecnologías. No solo acuñó la frase inteligencia artificial y dio el puntapié inicial para muchas de las cosas que hoy nos tienen tan ocupados, sino que además escribió un lenguaje de programación cuya influencia ha sido clave. Se llama LISP (por List Processing), nació en 1960 y tomó una serie de ideas de otro lenguaje, llamado IPL, con el que se había escrito el primer programa de inteligencia artificial. LISP es, junto con Fortran, uno de los dos programas de la etapa fundacional de la informática que todavía se usan.
Hay dos cosas más que aparecieron primero en la mente de McCarthy y que todavía tenemos entre nosotros. Una es algo abstracta. La otra es super cotidiana.
La abstracta es la recolección de basura. ¿Perdón? ¿Recolección de basura? Bueno, sí, es una traducción directa del nombre en inglés para un tecnicismo de la programación. La historia es así: cuando McCarthy estaba desarrollando LISP, se dio cuenta de que no siempre la memoria asignada (por ejemplo, a una variable) era liberada correctamente cuando esa referencia ya no era necesaria. Así que creó las primeras técnicas para liberar la memoria que ya no se usa, y en la jerga eso se llama “recolectar la basura”. Parece un asunto demasiado técnico para que figure aquí, pero resulta que todavía hoy, más de 60 años después, la recolección de basura sigue siendo un dolor de cabeza en programación.
La cotidiana: tu cuenta de Gmail o Instagram. Es decir, la Nube. Originalmente, se llamaba time-sharing, tiene una larga historia que ya conté en otros de los perfiles de los Pioneros Inesperados, y con el tiempo esa idea, la de que muchos usuarios puedan usar un sistema informático simultáneamente, adoptó varias formas y nombres. Hoy lo llamamos La Nube, y John fue uno de los primeros en pensarlo. También ensayó el concepto de que la computación fuera un servicio público, como la electricidad o el gas. Internet más la Nube se parecen mucho a eso.
John se casó tres veces. Falleció a los 84 años en su casa en Stanford; según sus familiares, por un infarto. Nos dejó el 24 de octubre de 2011, es decir, cuando el mundo todavía estaba conmocionado por la prematura muerte de Steve Jobs, que había fallecido 19 días antes. Ese mes de ese año se fueron en rigor tres grandes: primero Jobs, luego Dennis Ritchie y finalmente McCarthy. Los tres están hoy tan vigentes como cuando, jovencitos, llenos de energía y de entusiasmo, plantearon ideas tan locas como acertadas.
Más notas de Pioneros inesperados
Pioneros inesperados. Alan Kay. Matemático, biólogo, ingeniero y músico de jazz, inventó la notebook, la programación orientada a objetos y la palabra ícono
Pioneros inesperados. Bob Young. Estaba desempleado y debía una fortuna en tarjetas de crédito, pero un llamado de teléfono lo llevó a fundar un coloso de 34.000 millones de dólares
Más leídas de Tecnología
"Sobretensión". Cómo proteger los dispositivos electrónicos de los apagones de energía
Precaución. Así es la nueva y peligrosa estafa por WhatsApp: con un clic entran a tu homebanking
Actualizaciones. Así se puede descargar la última versión del APK WhatsApp Plus de mayo 2024
Princesa de Disney. Así se vería Anna de Frozen en la vida real, según la inteligencia artificial