Ideas que inspiran. Sam Harris: "Los avances de la inteligencia artificial podrían destruirnos"
El filósofo y neurocientífico norteamericano lamenta que el potencial daño que podría ocasionar a la especie humana una máquina superinteligente genere escasa preocupación en la comunidad científica
"Describiré una situación que creo que es tan aterradora como posible y veremos que eso no es una buena combinación. Y sin embargo, en lugar de sentir miedo, la mayoría pensará que es algo bastante interesante. Describiré cómo los avances en el campo de la inteligencia artificial, en última instancia, podrían destruirnos. Y, de hecho, me resulta muy difícil ver que no nos destruirían o nos ayudarán a destruirnos. Y sin embargo, si son como yo, encontrarán que es divertido pensar en estas cosas. Y esta manera de ver las cosas es parte del problema", comienza el filósofo y neurocientífico norteamericano Sam Harris.
Autor de varios libros que se convirtieron en best sellers, Harris está convencido de que, en algún momento, construiremos máquinas más inteligentes que nosotros, y una vez que las tengamos empezarán a mejorarse a sí mismas. "Y entonces corremos el riesgo teorizado por el matemático IJ Good llamado "explosión de inteligencia" donde el proceso podría salirse de control. Pero ese no es el escenario más probable. No es que nuestras máquinas se volverán malignas espontáneamente. La preocupación verdadera al construir máquinas mucho más competentes que nosotros es que la menor diferencia entre sus objetivos y los nuestros nos podría destruir", alerta.
"Parece muy probable que el espectro de la inteligencia se extienda mucho más allá de lo que actualmente concebimos, y si construimos máquinas más inteligentes que nosotros, muy probablemente explorarán este espectro de maneras que no podemos imaginar, y nos superarán de maneras inimaginables. Y es importante saber que esto es cierto sólo debido a la velocidad. Así que imaginen que acabamos de construir una máquina superinteligente que no fuera más inteligente que el promedio del equipo de investigadores en Stanford o el MIT. Los circuitos electrónicos funcionan aproximadamente un millón de veces más rápido que los bioquímicos, así que esta máquina debe pensar un millón de veces más rápido que las mentes que la construyeron. Con una semana funcionando llevará a cabo 20 000 años de trabajo intelectual a nivel humano, semana tras semana tras semana. ¿Cómo podríamos siquiera comprender, mucho menos restringir, una mente que progresa de esta manera?", se pregunta el especialista.
A su entender, los beneficios de poseer tal tecnología también son preocupantes: "Esta máquina sería el dispositivo de ahorro de mano de obra perfecta. Puede diseñar la máquina que puede construir la máquina que pueda hacer cualquier trabajo físico, impulsada por la luz solar, más o menos por el costo de las materias primas. Estamos hablando del fin del trabajo pesado humano. También estamos hablando del fin de la mayoría del trabajo intelectual. Entonces, ¿qué harían simios como nosotros en estas circunstancias? Puede parecer muy bueno, pero hay que preguntarse qué pasaría con nuestro orden económico y político actual. Podríamos presenciar un nivel de desigualdad de la riqueza y el desempleo nunca antes visto sin la voluntad de poner esta nueva riqueza inmediatamente al servicio de toda la humanidad, y unos poco trillonarios estarían en las portadas de las revistas de negocios mientras que el resto del mundo tendría la libertad de morirse de hambre".
"Una de las cosas más aterradoras, en mi opinión, en este momento, son el tipo de cosas que dicen los investigadores de inteligencia artificial cuando quieren tranquilizarnos. Y el motivo invocado más frecuentemente de que no nos preocupemos es el tiempo. Falta mucho para eso, no se preocupen. Eso será probablemente dentro de 50 o 100 años. Un investigador dijo, "Preocuparse por la seguridad y todo lo relacionado con la inteligencia artificial es como preocuparse por la superpoblación en Marte". Nadie parece darse cuenta que tomar el tiempo con referencia es una incongruencia total. Si la inteligencia es sólo una cuestión de procesamiento de la información y seguimos mejorando nuestras máquinas, produciremos algún tipo de superinteligencia. Y no tenemos idea de cuánto tiempo nos llevará crear las condiciones para hacerlo de forma segura", agrega Harris.
"Cincuenta años no es tanto tiempo para lograr uno de los mayores desafíos al que nuestra especie se ha enfrentado -continúa-. Una vez más, parece que no tenemos una respuesta emocional adecuada para lo que, con toda probabilidad, va a pasar. El científico de la computación Stuart Russell ofrece una gran analogía: "Imaginen que recibimos un mensaje de una civilización extraterrestre que diga: 'Gente de la Tierra, llegaremos en su planeta en 50 años. Prepárense'". ¿Estaremos contando los meses hasta que llegue la nave nodriza? ¿No estaríamos un poco más preocupados?"
"Ahora, por desgracia, no tengo una solución a este problema, además de recomendarles que piensen más sobre ello -concluye-. Creo que necesitamos un Proyecto Manhattan sobre el tema de la inteligencia artificial. Cuando hablamos de inteligencia artificial superinteligente que puede modificarse a sí misma, sólo tenemos una oportunidad de fijar las condiciones iniciales correctas, e incluso entonces necesitaremos gestionar las consecuencias económicas y políticas de dicho diseño."