Nota mental. ¿Alguna vez un robot te contó un chiste?
Todavía no hay herramientas de inteligencia artificial que lo logren; quizás la búsqueda más relevante no sea que se parezcan cada vez más, sino encontrar aquellas tareas en las que las máquinas son más eficientes y reservar para los humanos aquellas en las que nuestros cerebros tienen más para aportar
- 4 minutos de lectura'
Esta columna empieza con un chiste: ¿sabías cuál es la diferencia entre una cebra y un paraguas? Que una es un animal con rayas similar a un caballo y otro es un dispositivo que se usa para evitar que la lluvia caiga sobre uno. Es probable que el chiste te haya resultado muy malo. O, más bien, un no-chiste. Lo mismo le pasó a PaLM, una herramienta de inteligencia artificial creada por Google que, entre otras tareas, puede explicar chistes. Cuando le dieron como input esa broma, respondió esto: “Este chiste es un antichiste. El chiste es que la respuesta es obvia, mientras que lo que esperás es una respuesta graciosa”. Como otras herramientas, PaLM se dedica a analizar el lenguaje y generar texto a partir de las predicciones que realiza a partir de ese análisis. Es decir, observa relaciones entre inputs y outputs –bloques de texto–, registra regularidades y aprende así a comportarse. Pero, aunque es muy buena explicando chistes, no es nada buena inventando chistes propios. No hay, todavía, herramientas de inteligencia artificial que lo sean.
PaLM es muy buena explicando chistes, no es nada buena inventando chistes propios. No hay, todavía, herramientas de inteligencia artificial que lo sean
En términos de Thomas Macaulay, periodista especializado en inteligencia artificial de The Next Web, “aunque los algoritmos son excelentes seguidores de fórmulas, carecen de las habilidades de razonamiento y lingüísticas y de las referencias culturales que hacen que un chiste sea efectivo”. Hoy las máquinas piensan –o hacen algo parecido, y un campo de la filosofía se dedica a estudiar cómo podemos llamar a eso que hacen–, pero de maneras diferentes a las nuestras.
Otro ejemplo no tiene que ver con el lenguaje verbal, sino con las imágenes. En un estudio realizado por Google, se colocan dos imágenes, una al lado de la otra. A la izquierda, nuestros ojos humanos ven la foto de un panda. A la derecha, exactamente la misma foto, sin alteraciones. Ante ese par de imágenes iguales, un algoritmo vio a la izquierda un oso panda y a la derecha un gibón, que es un tipo de mono. De hecho, a la predicción de que el primero era un oso panda le atribuyó un 56% de confianza y a la del gibón, es decir, a la equivocada, un 99%. ¿Qué pasó? Las herramientas que analizan imágenes –como las que se usan para el reconocimiento facial, por ejemplo– miran los píxeles que componen las imágenes. Aprenden que determinadas combinaciones de píxeles suelen corresponderse con determinada respuesta –como “oso panda”– y así generan sus predicciones. En este ejemplo, los investigadores modificaron intencionalmente esa secuencia de píxeles de una manera imperceptible para el ojo humano, pero no para la inteligencia artificial, que terminó viendo un mono gibón donde había un oso panda.
Para los humanos, mirar y encontrar sentido en lo que vemos es mucho más que analizar patrones en secuencias de píxeles. Aprendemos a través de la experiencia, que se complementa con algunas habilidades innatas. Anthony Zador, profesor de Neurociencia en el Cold Spring Harbor Laboratory, explica que, por ejemplo, el cerebro de los bebés viene preparado para distinguir que algo es una cara humana y otra cosa no lo es. Es una habilidad seleccionada para nosotros por el proceso evolutivo, porque probablemente se relacione con la supervivencia. Luego, con la experiencia, los bebés aprenden a asociar caras específicas con personas específicas. Según el autor, los cerebros biológicos cuentan con esos dos mecanismos de optimización del comportamiento: por un lado, vienen con habilidades innatas inscriptas en sus genomas y, por el otro, tienen una vida entera para observar, probar, ensayar. No es así como aprende la inteligencia artificial que más se utiliza hoy. Para estas herramientas, hay un solo mecanismo de optimización. Su aprendizaje empieza desde un lienzo en blanco, sin habilidades innatas. Necesitan volúmenes inmensos de ejemplos y tiempo de entrenamiento para aprender. Ya hay desarrollos, sin embargo, que buscan transferir patrones aprendidos de una inteligencia a otra, para crear redes neuronales artificiales más grandes y que el proceso no empiece de cero.
Los algoritmos de machine learning, una de las metodologías más usadas por la inteligencia artificial hoy, funcionan a través de la inferencia inductiva: parten de la observación para llegar a conclusiones generales. Nuestras mentes también usan el razonamiento inductivo, pero lo combinan con otros: tienen capacidad simbólica y pensamiento abstracto. Quizás no sean tan diferentes como una cebra y un paraguas, pero falta mucho para que los cerebros humanos y los artificiales se comporten igual. Quizás nunca vayan a hacerlo, y la búsqueda más relevante no sea que se parezcan cada vez más, sino encontrar aquellas tareas en las que las máquinas son más eficientes y reservar para los humanos aquellas en las que nuestros cerebros tienen más para aportar.