El experto que desarrolló el primer traductor a gran escala se pregunta qué clase de objetivos estamos definiendo para la inteligencia artificial, y cómo nos pondremos de acuerdo en el camino para llegar a ellos... y cuándo lo haremos y cómo
- 7 minutos de lectura'
La casi implosión de OpenAI, líder mundial en el floreciente campo de la inteligencia artificial, reveló un conflicto dentro de la organización, y de la comunidad en general, sobre la velocidad a la que debe avanzar la tecnología y también sobre si desarrollarla de manera más lenta ayudaría a hacerla más segura.
Soy profesor tanto de inteligencia artificial como de ética de la IA y creo que este planteamiento del problema omite la pregunta crucial sobre el tipo de inteligencia artificial que aceleramos o desaceleramos.
En mis 40 años de investigación sobre procesamiento del lenguaje natural y la creatividad computacional en el campo de la IA, fui pionero en una serie de avances en aprendizaje automático que me permitieron construir el primer traductor de idiomas en línea a gran escala del mundo, el cual engendró en poco tiempo programas como Google Translate y Bing Translator de Microsoft. Es complicado encontrar argumentos en contra del desarrollo de las inteligencias artificiales de traducción. Reducir los malentendidos entre culturas tal vez sea una de las cosas más importantes que puede hacer la humanidad para sobrevivir a la polarización geopolítica cada vez mayor.
Sin embargo, la IA también tiene un lado oscuro. Vi cómo muchas de las mismas técnicas —inventos de nuestra comunidad de procesamiento del lenguaje natural y aprendizaje automático con fines benéficos— se utilizaban en las redes sociales y los motores de búsqueda y recomendación para amplificar la polarización en los prejuicios y la desinformación de un modo que plantea cada vez más amenazas existenciales para la democracia. En fechas recientes, a medida que la inteligencia artificial se ha vuelto más poderosa, hemos visto cómo la tecnología ha llevado las ciberestafas a un nuevo nivel con voces deepfakes de colegas o seres queridos utilizadas para robarte dinero.
Las inteligencias artificiales manipulan a la humanidad. Y están a punto de ejercer un poder todavía más inconcebible para manipular nuestro inconsciente, algo que apenas se ha insinuado con los grandes modelos lingüísticos como ChatGPT. El momento Oppenheimer es real.
Sin embargo, el dilema de “velocidad versus seguridad” no es lo único que nos distrae de las cuestiones importantes, y que oculta las amenazas reales que se ciernen sobre nosotros.
Uno de los pasos clave en los círculos de seguridad de la inteligencia artificial es la “alineación de la IA”, la cual se centra en el desarrollo de métodos para alinear las inteligencias artificiales con los objetivos de la humanidad. Hasta el caos reciente, Ilya Sutskever y Jan Leike, jefe de investigación sobre alineación de OpenAI, codirigían un programa de investigación sobre “superalineación” que intenta resolver una pregunta sencilla, pero de una complejidad significativa: “¿Cómo podemos garantizar que unos sistemas de inteligencia artificial mucho más inteligentes que los humanos cumplan los objetivos humanos?”.
No obstante, en la alineación de la IA, una vez más, hay un asunto evidente con el que no queremos lidiar.
Alineación… ¿con qué tipo de objetivos humanos?
Desde hace tiempo, los filósofos, los políticos y las poblaciones han luchado con las disyuntivas espinosas entre los distintos objetivos. ¿Gratificación instantánea a corto plazo? ¿Felicidad a largo plazo? ¿Evitar la extinción? ¿Libertades individuales? ¿Bien colectivo? ¿Límites a la desigualdad? ¿Igualdad de oportunidades? ¿Grado de gobernanza? ¿Libertad de expresión? ¿Seguridad frente a discursos perjudiciales? ¿Grado de manipulación admisible? ¿Tolerancia de la diversidad? ¿Imprudencia admisible? ¿Derechos versus responsabilidades?
No hay un consenso universal sobre estos objetivos, mucho menos sobre asuntos todavía más detonantes como los derechos a las armas, los derechos reproductivos o los conflictos geopolíticos.
De hecho, la saga de OpenAI demuestra ampliamente cuán imposible es alinear los objetivos, incluso entre un grupo diminuto de líderes de OpenAI. ¿Cómo es posible que la inteligencia artificial se alinee con todos los objetivos de la humanidad?
Si este problema parece obvio, ¿por qué la alineación de la IA tiene tanto peso en la comunidad de la IA? Es probable que se deba a que el paradigma del modelo dominante en la inteligencia artificial es definir una función matemática que sirva de “función objetivo”, es decir, un objetivo cuantitativo o un norte que deba buscar la inteligencia artificial. En todo momento, el cerebro artificial de una IA toma miles, millones o incluso miles de millones de pequeñas decisiones para maximizar la consecución de este objetivo. Por ejemplo, un estudio reciente mostró cómo una IA médica que busca automatizar una fracción de la carga de trabajo de las radiografías de tórax detectó el 99 por ciento de todas las radiografías de tórax anormales, una cantidad superior a la de los radiólogos humanos.
Por lo tanto, los investigadores de la inteligencia artificial estamos muy tentados a plantear todo en términos de la maximización de una función objetivo; somos un caso típico de uso por costumbre. Para conseguir una IA segura, ¡solo debemos maximizar la alineación entre la tecnología y los objetivos de la humanidad! Si tan solo pudiéramos definir una función objetivo clara que mida el grado de alineación con todos los objetivos de la humanidad.
En la comunidad de la investigación sobre la IA ignoramos con demasiada frecuencia los riesgos existenciales que surgen de la manera en que esta interactúa con la compleja dinámica de los caóticos factores psicológicos, sociales, culturales, políticos y emocionales de la humanidad; los cuales no vienen prolijamente empacados en una simple función matemática.
Las empresas de IA, los investigadores y los reguladores deben acelerar con urgencia la resolución del problema que plantea el funcionamiento que se espera de las inteligencias artificiales frente a disyuntivas inmemoriales entre objetivos opuestos que no se han resuelto y también acelerar el desarrollo de nuevos tipos de inteligencias artificiales que puedan ayudar a resolver estos problemas. Por ejemplo, uno de mis proyectos de investigación incluye una inteligencia artificial que no solo comprueba la información, sino que la reformula en automático para reducir los prejuicios implícitos de los lectores. Acelerar este trabajo es apremiante justo por el avance exponencial de la tecnología de la IA en la actualidad.
Mientras tanto, debemos desacelerar el despliegue de las inteligencias artificiales que están exacerbando la inestabilidad sociopolítica, como los algoritmos que alinean una tras otra las publicaciones con teorías conspiratorias. En cambio, debemos acelerar el desarrollo de las inteligencias artificiales que ayuden a reducir esos peligrosos niveles de polarización.
Y todos nosotros —los expertos en inteligencia artificial, influyentes de Silicon Valley y grandes medios de comunicación que dirigimos las conversaciones cotidianas— debemos dejar de esconder debajo de la alfombra estos desafíos reales por medio de narrativas demasiado simplistas y mal enmarcadas en torno a la aceleración versus la desaceleración de la IA. Debemos reconocer que nuestro trabajo impacta en los seres humanos y los seres humanos son desordenados y complejos en maneras que tal vez una ecuación elegante no pueda reflejar.
La cultura importa. La IA ya es parte de la vida cotidiana de nuestra sociedad, un hecho que llegará a ser más pronunciado de lo que la mayoría de las personas jamás imaginaron. Ya es demasiado tarde para empezar a darse cuenta de eso. Hagamos que un conflicto en una sala de juntas sea nuestra oportunidad. Es posible soñar a lo grande rápido y frenar la confusión.
De Kai es profesor de informática e ingeniería en la Universidad de Ciencia y Tecnología de Hong Kong.