En agosto, investigadores del Instituto Allen para la Inteligencia Artificial , un laboratorio con sede en Seattle, dieron a conocer un examen de inglés para computadoras. Consistía en examinar si las máquinas podían completar oraciones como la siguiente:
En el escenario, una mujer se sienta frente al piano. Ella
a) se sienta en una banca mientras su hermana juega con una muñeca.
b) le sonríe a alguien mientras suena la música.
c) está en el público y observa a los bailarines.
d) coloca con nerviosismo los dedos sobre las teclas.
Para ti, podrá ser una pregunta sencilla. Sin embargo, para una computadora , fue bastante difícil. Mientras los humanos respondieron correctamente más del 88 por ciento de las preguntas del examen, los sistemas del laboratorio de inteligencia artificial rondaron el 60 por ciento. Para los expertos —los que saben de la dificultad que implica crear sistemas que entiendan el lenguaje natural — fue una calificación impresionante.
Dos meses más tarde, un equipo de investigadores de Google desveló un sistema llamado BERT. Su tecnología mejorada respondió esas preguntas tan bien como los humanos, y ni siquiera estaba diseñada para tomar el examen.
La llegada de BERT enfatiza un desarrollo significativo en el campo de la inteligencia artificial. En los últimos meses, los investigadores han demostrado que los sistemas computarizados pueden aprender los caprichos del lenguaje de forma general y después utilizar lo aprendido en una variedad de tareas específicas.
Varias organizaciones independientes de investigación, entre ellas Google y el Instituto Allen, construyeron en rápida sucesión estos sistemas, que podrían mejorar tecnologías tan diversas como los asistentes digitales del estilo de Alexa y Google Home, y los softwares que analizan documentos en automático para despachos jurídicos, hospitales, bancos y otros negocios.
"Cada vez que creamos un nuevo mecanismo que hace algo a un nivel cercano al de los humanos, esto nos permite automatizar o complementar la mano de obra humana", comentó Jeremy Howard, fundador de Fast.ai, un laboratorio independiente con sede en San Francisco y uno de los que está a la vanguardia en esta investigación. "Esto puede facilitar la vida de un abogado o de un asistente legal. Pero también puede servir a la medicina".
Incluso podría generar tecnología que —por fin— pueda seguir una conversación decente.
No obstante, hay una desventaja: en los servicios de redes sociales como Twitter, esta nueva investigación también podría producir bots diseñados para ser más convincentes al momento de engañarnos con la idea de que son humanos, señaló Howard.
Los investigadores han mostrado que la rapidez en las mejoras de las técnicas de inteligencia artificial puede facilitar la creación de imágenes falsas que parezcan reales. Conforme este tipo de tecnologías también se van acercando al campo del lenguaje, según Howard, tal vez debamos mostrarnos más escépticos que nunca respecto a lo que encontramos en internet.
Estos nuevos sistemas de lenguaje aprenden analizando millones de oraciones escritas por humanos. Un sistema creado en OpenAI, un laboratorio con sede en San Francisco, analizó miles de libros autopublicados, entre ellos novelas románticas, ciencia ficción y más. BERT de Google analizó esos mismos libros y la totalidad de Wikipedia.
Cada sistema aprendió una habilidad particular analizando todos esos textos. La tecnología de OpenAI aprendió a adivinar la siguiente palabra en una oración. BERT aprendió a adivinar palabras faltantes en cualquier lugar de una oración. Sin embargo, mientras aprendían a dominar estas tareas específicas, también aprendieron la forma en que se construye el lenguaje.
Si BERT puede adivinar las palabras faltantes en millones de oraciones (como "el hombre entró a una tienda y compró una _____ de leche"), también puede comprender muchas de las relaciones fundamentales que hay entre las palabras de la lengua inglesa, mencionó Jacob Devlin, el investigador de Google que supervisó la creación de BERT (BERT es la abreviatura de Bidirectional Encoder Representations from Transformers).
El sistema puede utilizar este conocimiento para otras tareas. Si los investigadores le dan a BERT un montón de preguntas con sus respuestas, aprende a contestar otras preguntas por sí solo. Entonces, si lo alimentan con titulares de noticias que describen el mismo evento, aprende a reconocer cuando dos oraciones son similares. Por lo general, las máquinas solo pueden reconocer una coincidencia exacta.
BERT puede realizar el examen del "sentido común" del Instituto Allen. También puede realizar pruebas de comprensión de lectura en las que responde preguntas sobre entradas enciclopédicas. ¿Qué es el oxígeno? ¿Qué es la precipitación? En otro examen, puede juzgar la opinión de la reseña de una película. ¿La reseña es positiva o negativa?
Este tipo de tecnología es "un paso hacia muchas metas aún lejanas en el campo de la inteligencia artificial, como las que podrán resumir y sintetizar colecciones enormes y desorganizadas de información para ayudar a la gente a tomar decisiones importantes", aseguró Sam Bowman, un profesor de la Universidad de Nueva York que se especializa en la investigación del lenguaje natural.
En las semanas posteriores al lanzamiento del sistema de OpenAI, investigadores externos lo utilizaron en conversaciones. Un grupo independiente de investigadores usó la tecnología de OpenAI a fin de crear un sistema que lidera una competencia para crear el mejor chatbot, la cual fue organizada por varios de los laboratorios más importantes, entre ellos el laboratorio de inteligencia artificial de Facebook. Además, este mes Google creó un "acceso abierto" al código del sistema de BERT, con el objetivo de que haya más personas que puedan usarlo para otras tareas. Devlin y sus colegas ya lo han capacitado en 102 idiomas.
Sebastian Ruder, un investigador radicado en Irlanda que colabora con Fast.ai, considera que la llegada de los sistemas como BERT son una "llamada de atención" para él y otros investigadores especializados en la inteligencia artificial, pues habían dado por sentado que la tecnología del lenguaje había llegado a un tope. "Hay mucho potencial sin explotar", comentó.
Los complejos sistemas matemáticos detrás de esta tecnología se llaman redes neuronales. En años recientes, este tipo de aprendizaje automático ha acelerado el progreso en materias tan variadas como la tecnología de reconocimiento facial y los vehículos autónomos. Los investigadores lo llaman "aprendizaje profundo".
BERT tuvo éxito en parte porque empleó una potencia de procesamiento computarizado muy alta que no estaba disponible en años pasados para las redes neuronales. Analizó todos los artículos de Wikipedia en cuestión de varios días por medio de decenas de procesadores informáticos que Google creó específicamente para las redes neuronales de capacitación.
Las ideas detrás de BERT llevan años en circulación, pero comenzaron a funcionar porque el hardware moderno puede manejar cantidades mucho más grandes de información, según Devlin.
No obstante, todavía hay escepticismo respecto de que esta tecnología pueda seguir mejorando con rapidez porque los investigadores tienden a concentrarse en tareas en las que pueden progresar y a evitar aquellas en las que no pueden, mencionó Gary Marcus, un profesor de psicología de la Universidad de Nueva York que desde hace tiempo ha cuestionado la eficacia de las redes neuronales. "A estos sistemas aún les falta mucho para en verdad comprender una prosa fluida", sentenció.