Y un día les enseñamos a las piedras a pensar
Cuarenta años después de su modesto y accidentado nacimiento, el microprocesador está hoy en todos lados. En la computadora, claro, y en sus múltiples variantes, en los celulares y smartphones, por supuesto, pero también está en los automóviles, en el reproductor de DVD y MP3, en el horno a microondas, el GPS y en el reloj de pulsera. En rigor, quedan muy pocas cosas que se enchufan a la red eléctrica que no estén controladas por un microprocesador (CPU) o por un microcontrolador (MCU; éstos son toda una computadora en un solo chip). Es lógico, por otro lado. Estos circuitos son más eficientes, económicos y duraderos que los mecanismos electromecánicos que, en muchos casos, vinieron a reemplazar.
Pero no sólo fue un reemplazo. De hecho, eso es lo menos importante. Los micros originaron un número formidable de nuevas industrias, dispositivos, actividades, posibilidades y, al final, en manos de nosotros, del público, cambiaron el rumbo de la civilización. Desde Toy Story hasta la tomografía computada, desde Twitter hasta el cajero automático, casi nada del mundo que conocemos existiría sin los CPU. Le hemos enseñado al silicio, un simple mineral, a sumar, restar y evaluar proposiciones lógicas. Nada menos.
La pregunta que se me vino a la mente el otro día, mientras remaba a 300 baudios por el pegajoso tránsito porteño, fue: ¿y ahora qué? ¿Cuál es el siguiente paso en la integración? ¿Cómo serán los próximos 40 años de los cerebros electrónicos?
Cuando uno habla con los ingenieros que trabajan en tecnología y les propone un horizonte de 40 años, lo que obtiene es un cerrado silencio, cuando no un bufido entre asombrado y burlón. Cuarenta años es de verdad mucho. Desde noviembre de 1971 hasta hoy, el número de transistores en el CPU en su PC ha aumentado 508 veces. El costo de 1 Gigaflops en 1984 era de 15 millones de dólares; hoy es de algo menos de 2 dólares. Así que los ingenieros tienen razón en poner los ojos en blanco cuando se les pregunta por los próximos 40 años.
Esa es precisamente la razón por la que, de todos modos, charlé esta semana con los expertos de tres de las empresas que más han contribuido a los avances de estas tecnologías. ¿Cómo sigue la biografía del microprocesador?
La holocubierta está en camino
Para José Luis Fernández, ingeniero de campo de AMD, el camino continúa siendo el de aumentar el número de transistores en la pastilla. Pastilla (en inglés se la llama die ) es la pequeña pieza de silicio sobre la que se imprimen los circuitos y que es, con pleno derecho, el microprocesador en sí. Esa pieza, que en el caso de un chip moderno para PC tiene entre 140 y 230 milímetros cuadrados, va encapsulada dentro de una carcasa de plástico con los correspondientes conectores.
"Siempre se encuentra un pasito más para forzar los límites de la física y aumentar la densidad de transistores –me dijo Fernández–. Eventualmente, eso se va a terminar, y tanto desde la ciencia ficción como desde las ciencias básicas se vienen evaluando alternativas: fotónica, biocomputadoras, computación cuántica, pero son cosas que todavía no tienen aplicación fuera del ámbito científico. Por otro lado, en el futuro se va a dar un uso más inteligente de los transistores, creando cosas como el cómputo heterogéneo, o sea que no sólo haya varios núcleos, sino que cada uno de los núcleos esté especializado en algo", agregó Fernández, que concluyó su charla con un mensaje "para tus lectores". "Deciles que la holocubierta se va a hacer realidad, que estamos trabajando en eso." Un guiño para trekkies ( https://es.wikipedia.org/wiki/Trekkie ), claro.
Hablando de luz
Martín Perroud, Technical Marketing Engineer de Intel, que hasta hace tres meses trabajaba en Puerto Madero y hoy vive en Santa Clara, Estados Unidos, me dijo: "Sin duda vamos a ver un aumento de la capacidad de cómputo en el cliente y en el servidor al tiempo que se baja el consumo. Además, la comunicación va a ser más rápida. Estamos trabajando con fotónica, para que los chips se hablen usando luz láser en lugar de electricidad; esto aumentará la velocidad de todo el conjunto". Como Fernández, Perroud opina que el poder de cómputo seguirá aumentando. "Los chips serán cada vez más pequeños y potentes, y más orientados al usuario", sostuvo, y esto está directamente emparentado con la cantidad de transistores. Piénselo, hoy un Core i7 tiene una pastilla de 1 centímetro de alto por dos de largo (10,94 x 21,8 milímetros) en la que conviven más de 1100 millones de transistores, los componentes activos que, operando como pequeños interruptores que dejan o no pasar la electricidad, hacen funcionar estos prodigios de la miniaturización. El primer micro, el 4004, cuarenta años atrás, tenía 2300 transistores.
La apuesta sigue en ese sentido y, como me dijo Perroud, en la reducción del consumo eléctrico. Menos consumo significa menos disipación de calor y más duración de las baterías. Y ya sabemos que hoy vivimos en un mundo donde todo es (o pretende ser) móvil.
¿Y más allá? "A mediano plazo estamos trabajando en lo que se conoce como system on a chip , el microprocesador integrará no sólo cálculo y video, como hoy, sino también comunicaciones y seguridad."
Historias de la mente
También llamé a Ghavam Shahidi, IBM Fellow y director de Tecnología de Silicio de IBM Research. Este iraní de 52 años me dijo asimismo que por ahora el futuro de los chips está en aumentar el número de transistores. "Este valor se duplica cada dos años, así que dentro de 10 superaremos los 30.000 millones de transistores dentro de un mismo micro", aseguró Ghavam al otro lado de la línea, desde su oficina en el laboratorio Watson de Nueva York.
Para alcanzar semejante meta, la de seguir apretujando transistores hasta el mismísimo límite en el que nos encontremos cara a cara con los átomos, IBM está ensayando lo que se conoce como empaquetamiento 3D. Esto es, en lugar de una sola pastilla de silicio se usan varias una arriba de la otra. Para 2019, según una tabla que Ghavam me envió por correo, tendremos una densidad de 17.000 millones de transistores en 500 milímetros cuadrados, lo que puede llevarse hasta la escalofriante cifra de 51.000 millones en chips con tres capas de silicio. El desafío aquí es cómo evitar que en el centro de ese sándwich de silicio la temperatura no queme todo. Se está experimentando incluso con enfriar el conjunto por medio de microcanales que lleven agua.
Lo que viene después, me confesó Ghavam, está todavía en pañales: computación cuántica, la nanotecnología como herramienta para construir chips más complejos y hasta el aprender de la arquitectura del cerebro biológico. Tiene sentido. A fin de cuentas, el nuestro es heredero de 4000 millones de años de evolución orgánica.
El océano pensante
¿Y después, qué?
Oh, sí, puedo ser insistente cuando quiero. Sólo que en este caso la respuesta no está en la ingeniería ni en las ciencias básicas, sino en la literatura. Creo a pie juntillas que lo que podemos imaginar se puede hacer; sólo es cuestión de tiempo.
Cierto es que el método de lanzamiento descripto por Verne nos resulta ingenuo, pero llegamos a la Luna. La red global del distópico Sadrac en el horno , de Robert Silverberg, no tiene nada que envidiarle a la Internet de hoy. Los robots de Asimov han de llegar, inexorablemente, aunque me temo que no sus tres leyes. Y la red de satélites que hoy rodea el planeta fue propuesta primero por un escritor, Arthur C. Clarke, en 1945.
¿Qué autor me parece más inspirador cuando pienso en microprocesadores? Sin duda, Stanislav Lem. En dos de sus novelas más conocidas, El Invencible y Solaris , el genial polaco visita una de sus principales obsesiones, la de la evolución de la vida inorgánica. Lo hace, además, sin la aniñada perspectiva de que las máquinas algún día pensarán como nosotros.
Las máquinas pensantes de El Invencible son tan ajenas a nuestra naturaleza como las hormigas o las abejas. Pequeñas moscas en forma de Y hechas de alguna clase de metal (muy posiblemente, metales más semiconductores, diría) son prácticamente indefensas y tontas cuando se encuentran aisladas. Pero en grupo, en masivas nubes de dimensiones colosales, exhiben una inteligencia y un poderío que desafía a los humanos.
En Solaris , Lem imagina algo todavía más osado: un océano pensante. No da explicaciones. No es su estilo, y eso me encanta. La idea sola ya es lo bastante abrumadora, y los buenos escritores no necesitan dar cátedra. Ni excusas de verosimilitud. Es así. Punto. Ese planeta, Solaris, alberga un solo ser viviente, un océano que no sólo piensa, sino que puede entrar en nuestras mentes y crear personas y mundos acordes con nuestros terrores, sueños y deseos. Inquietante en extremo, esta prodigiosa novela tuvo dos versiones para cine, una decente de Andrei Tarkovsky y otra, pésima, de Steven Soderbergh. También la filmó para TV Boris Nirenburg, obra que no he visto.
A propósito, Lem también ha transitado las fábulas con robots antropomórficos con problemas y desafíos muy humanos en La Ciberíada , en tono humorístico, y es un placer el leerla.
Tan listo como una bacteria
¿Qué me imagino para el futuro? Sí, el poder de cómputo seguirá aumentando, y hasta podría alcanzar y luego superar la fuerza de cálculo bruta del cerebro humano hacia 2050, como sostiene Ray Kurzweil. Pero tengo la impresión de que todo esto ocurrirá a escalas que no podemos esbozar sin ganarnos una camisa de fuerza y de formas que parecería disparatado siquiera sugerir.
Pero lo haré.
Los cerebros electrónicos representan la más reciente y notable muestra del poder de abstracción del ser humano. No hay ceros y unos en un chip, pero hemos creado las herramientas para tratar sus estados eléctricos como números y para hacer con números la magia de la matemática y la lógica. Es decir, les hemos enseñado a pensar a las piedras, y me temo que no será la última vez que ensayemos este truco.
Me imagino que en el futuro la capacidad de cómputo se extenderá más allá del contenedor plástico del chip. Si podemos miniaturizar más y si somos capaces de embeber transistores en otros soportes, el papel y la ropa podrían volverse, por así decir, inteligentes . Pero hay más.
Alguna vez, según es ahora obvio, podremos poner una computadora no ya en un smartphone o en un pequeño cubo del tamaño de un terrón de azúcar, sino en un grano de arroz. Luego, achicaremos eso, hasta que la computadora completa, cientos, miles o millones de veces más potente que nuestras PC de escritorio actuales, sea tan pequeña que haga falta una lupa o un microscopio para verla. Entonces, el poder de cómputo podría literalmente sembrarse en un campo o formar parte de un remedio.
También estamos manipulando el ADN y ya se ha logrado crear bacterias que funcionan como transistores; o, para ser precisos, como compuertas lógicas, el componente activo del transistor, el que deja pasar o no la electricidad. Y ya sabe cómo son los científicos y los ingenieros: no les dé un problema porque más tarde o más temprano lo van a resolver.
¿Microprocesadores bacterianos? Quizá, pero estoy pensando en otra cosa. ¿Cuánto más llevará enseñarle a nuestros propios genes a producir microprocesadores naturales anexados, incluso a pedido, a nuestro cerebro natural, con la interfaz adecuada para acceder a sus funciones?
Por último, y para no excederme, existe la posibilidad de que algún hallazgo disruptivo revolucione por completo la forma en que obligamos a la materia a hacer cálculo. Tal método convertiría en obsoleto todo lo que conocemos hoy y sobre lo que planeamos el futuro.
De una cosa estoy seguro. Estamos en el primer milisegundo de la historia del cómputo. La potencia en 40 años ha aumentado 350.000 veces, y parece mucho. Es mucho. Pero es apenas el principio. Un día miraremos hacia atrás y diremos: Pensar que cuando era chico nos alcanzaba con 32.000 millones de transistores. Qué tiempos aquellos.