Martín Abadi es argentino. Y por estos días fue elegido para sumarse a la Academia Nacional de Ingeniería de los Estados Unidos. La distinción llegó por su labor de toda la vida: desde 2014 trabaja en Google como investigador principal en una de las áreas de la informática que más ha crecido en los últimos años, la de la inteligencia artificial , pero lleva más de dos décadas en el área. Más específicamente, trabaja sobre el aprendizaje de máquinas (machine learning), que consiste, ni más ni menos, en lograr que las computadoras sean capaces de aprender cosas y (esa es la quimera) que lo hagan sin ayuda humana.
Es, por ejemplo, uno de los autores de un experimento que dio que hablar, pero (dice) por razones equivocadas. En el experimento logró que dos computadoras crearan un sistema de comunicación propio, hecho con su propio cifrado: una encriptación para que los dos equipos hablaran entre sí, y que un tercero no pudiera saber qué decían.
La lectura tremendista era fácil: las computadoras saben cómo cuchichear entre ellas sin que entendamos qué dicen. Acompañados por los pedidos de Elon Musk y otros expertos para ponerle un límite al desarrollo de la inteligencia artificial, el salto mental a temer la llegada de Skynet, Terminator y la Matrix es mínimo.
-Pensar en una humanidad esclava de las computadoras es algo que queda bien en las películas, pero no es algo de lo que estemos cerca en el mediano plazo. Lo que me interesó del experimento es que haya computadoras descubriendo un lenguaje. Eso de por sí es fascinante: cómo aparece el lenguaje es un tema viejo en lingüística. Este experimento era en parte eso, ver si las computadoras pueden inventar un lenguaje o no. Y demostramos que pueden inventar un lenguaje que una tercera computadora no puede descifrar. Pero la llave para desencriptar la información está, viene de afuera, alguien siempre la tiene. No es un método de comunicación incomprensible para las personas.
-Es decir, no llega a ser la inteligencia artificial de las películas.
-Hay que distinguir entre la inteligencia artificial que se usa para herramientas específicas, como reconocer imágenes, y la inteligencia artificial general, que puede resolver problemas completamente nuevos, y funcionar en el mundo en forma independiente. Esa inteligencia artificial general todavía está lejos. Tenemos tiempo todavía para pensar qué forma va a tomar, qué objetivo le podemos dar. Pero falta muchísimo. Incluyendo definir cómo le enseñamos algo, que es un problema en sí mismo.
-¿Cómo es eso?
-Podemos hacer un robot que limpie una casa, pero cada casa es diferente. Por eso el aprendizaje es fabuloso, porque permite no programar reglas fijas sobre cómo debe subir escaleras o no romper floreros, o lo que sea. Pero inclusive dentro de este problema muy limitado de limpiar una casa, uno debe pensar en cómo planteamos los objetivos para el robot: que limpie las ventanas, pero que no las raye. Si uno se olvida de decirle que no las raye, y le pide que las limpie lo mejor posible, quizá haya efectos colaterales indeseados: si no fue instruido, el robot no sabe la diferencia entre limpiar a fondo y destruir un vidrio.
-Porque tener cierta inteligencia no es lo mismo que ser capaz de entender y aprender…
-Hay que diferenciar entre Inteligencia Artificial (IA) y aprendizaje de máquina (ML, por sus siglas en inglés). IA es lograr un comportamiento que se puede considerar inteligente en algo artificial, como una máquina. Pero ese comportamiento puede ser logrado de muchas maneras. Una de las maneras es escribir muchas reglas, previendo múltiples consultas o situaciones a resolver. El problema de las reglas hechas a mano es que son muy endebles: si escribo reglas sobre el Luna Park, debo aclarar si es el de Buenos Aires o el de Nápoles. Si es sobre River, si es el porteño o el de Uruguay. Y las reglas pueden cambiar con el tiempo. Es una tarea inabarcable. Por eso hace décadas que hay interés en desarrollar sistemas que en vez de tener reglas prefabricadas por humanos, van descubriendo por su cuenta, en cierto modo, las reglas a partir de ver muchos ejemplos. Por ejemplo, viendo imágenes de gatos, descubrir qué es la esencia de un gato. Por supuesto hay casos ambiguos, en que la computadora dirá “no sé qué es”; pero el ML ayuda aunque sea a no tener que poner a mano la regla de los bigotes del gato, y si el gato puede tener cuatro o tres patas. Ese es el aprendizaje automático.
-Y ya se está usando…
-Sí, claro; las cosas que esperábamos cuando publicamos Tensor Flow (una plataforma abierta de Google para usar sus recursos de aprendizaje de máquina) sucedieron. Hay compañías como AirBnb, Dropbox, universidades, etcétera, que lo aplican todo el tiempo. Después aparecieron cosas que no esperábamos: en una granja de pepinos en Japón tenían que clasificar los pepinos según su forma, color, tamaño y demás, en nueve categorías. Y los granjeros hace años que lo hacían manualmente. El hijo de los dueños de la granja tenía una formación de ingeniero, aunque no era informático, pero sabía trabajar con computadoras; les armó una maquinita usando Tensor Flow para clasificar pepinos. Usó 7000 pepinos clasificados a mano para entrenar el algoritmo de clasificación y después construyó esta maquinita, que ahora clasifica los pepinos en forma automática. Y en una universidad de Australia querían monitorear las migraciones de los manatíes, un animal marino que está en peligro de extinción. El método tradicional es tomar imágenes aéreas y mirarlas con mucho cuidado, para ver si aparecen unos puntitos que indican dónde están los animales. Y resulta que se pueden usar técnicas de visión automática (es decir, hacer que una computadora analice los datos de una imagen) para hacer que ese trabajo sea mucho más rápido y a mayor escala. Un grupo dentro de Google estuvo usando estas herramientas para detectar la retinopatía diabética, es una aplicación de visión automática, los resultados son comparables a los que se tienen con un oftalmólogo humano.
-¿Y qué es lo falta desarrollar?
-Hay cosas que todavía no sabemos cómo hacer. Para que una computadora pueda reconocer gatos y perros, tiene que ver miles de imágenes. Cuando llevás a un chico a un zoológico y le mostrás una jirafa, con una alcanza. Ya sabe cómo es una jirafa. Todavía no sabemos cómo lograr este tipo de entrenamiento con las computadoras. Otro problema interesante es que en el mundo tenemos muchos datos que no están etiquetados. Fotos de gatos, de perros, de mesas, de muchas cosas, de las que no hay una categorización hecha a mano. Parecería que los humanos pueden usar eso, quizá es la clave del aprendizaje a partir de pocos ejemplos, porque uno ya tiene una idea de los conceptos generales de los que puede “colgar” esta idea de jirafa. Otro tema es la transferencia de aprendizaje. Si aprendo a hacer una tarea, cuánto puedo reutilizar de ese aprendizaje para la tarea siguiente. Si aprendo a traducir del inglés al francés, y mañana tengo que traducir del chino al ruso, ¿qué tienen en común esos procesos que me puedan servir? Es obvio que para la gente hay algo que hace clic, que aprenden a ser traductores, y que la segunda vez traducir, aunque sea con idiomas diferentes, les resulta más fácil. O manejar: si aprendí en un auto, y cambio a otro, no tengo que volver a aprender a manejar, no empiezo de cero. Así que queda muchísimo para hacer en los próximos 20 o 30 años.
-¿Cómo llegó usted, hace treinta años, a la inteligencia artificial?
-Nací en 1963, crecí en Buenos Aires y me fui cuando terminé el secundario en el Liceo Francés a fines de los 70s, un período bastante pesado en el que la gente se iba a estudiar afuera por razones políticas, pero también por cuestiones puramente académicas. A mí ya me había picado el bicho de la informática, tenía una calculadora TI-59 programable, me interesaba la lingüística y también la matemática. Acá recién se estaban comenzando a hacer algunas cosas en informática, lo mismo en Francia. Y en Estados Unidos estaban pasando cosas muy interesantes ya en Silicon Valley. Así que terminé yendo a la Universidad de Stanford con 17 años. Ahora tengo un hijo de 17, ni loco lo dejo irse al otro lado del mundo a estudiar [se ríe]. Cuando me fui pensé que era por unos años y volvía; al final me quedé más de 30 años.
-Entremedio, además de tener una larga trayectoria como académico, también trabajó en Microsoft, en Digital y otras compañías. Y en 1997 fue una de las personas que patentó el Captcha...
-Ah, sí. Un error de juventud, mucha gente agradecida y mucha que me odia también [se ríe]. Lo que hicimos entonces fue un sistema para diferenciar robots de humanos. Pero lo del Captcha fue inventado varias veces por grupos separados; nosotros no fuimos los únicos [alude a Luis Von Ahn, su mayor promotor ]. Era una idea muy atractiva en ese momento, nos interesaba el voto electrónico, y uno de nuestros colegas en Digital planteó el problema de pensar cómo hacíamos para asegurar que las máquinas no pudieran votar por si solas. Fue algo divertido, pero muy puntual; era el principio de la web, había cosas muy fáciles para inventar. Muchas veces íbamos a almorzar, pensábamos algo así, y después nos parecía que era demasiado chiquito para hacer un artículo académico sobre eso, pero por las dudas hacíamos una patente. Eso fue lo que pasó con el Captcha.
-Así que en su carrera pasó de un sistema para distinguir humanos de máquinas a pensar en cómo lograr que se parezcan.
-En cierto modo. Pero las computadoras mejoraron tanto que es muy difícil construir un Captcha que sea fácil para una persona, pero difícil para una computadora. La tendencia es tratar de alivianar estos sistemas, que están desapareciendo, porque hay otras maneras de detectar si lo que está del otro lado es una persona.
-En algún momento ¿veremos un salto en la inteligencia artificial que la iguale a la humana?
-Creo que es algo más gradual, la generalidad es lo que caracteriza el poder inteligente de los humanos. Cuando uno fabrica una máquina para jugar al ajedrez, esa máquina puede ser campeona, pero no sabe jugar a las damas. Uno espera de una inteligencia artificial que sepa pasar de un juego a otro. Y aunque ya tenemos algunas manifestaciones de eso, no van hasta la generalidad total que uno podría imaginar más tarde. Es un tema que data de los años 80: si las máquinas entienden, si sienten, en qué momento se habla de conciencia. Por ahora son un conjunto de técnicas que ayudan a mejorar los resultados de un proceso.
-Siempre está el temor de que se usen para algo maligno.
-Bueno, está la idea de implementar algo como las leyes de Asimov para robots, pero aplicadas a la inteligencia artificial, una base fundamental para promover el bien… pero primero hay que definir qué es el bien y qué el mal, que es un problema interesante, pero que va más allá de la informática.
Otras noticias de Inteligencia artificial
Más leídas de Tecnología
Similares a los Ray-ban de Meta. Samsung tendrá su línea de anteojos inteligentes en 2025
Cuidado. Qué significa quitar la foto de perfil en WhatsApp, según un psicólogo
Auto clásico. Cómo se vería el histórico Dodge GTX modelo 2025, según la IA
Según la IA. Los suplementos naturales que pueden mejorar tu digestión