La ley de Moore cumple medio siglo
El 19 de abril de 1965, en el número del trigésimo quinto aniversario de la revista Electronics, Gordon Moore, por entonces director de investigación y desarrollo de la compañía Fairchild, publicó un artículo en el que predecía que el número de componentes en los circuitos integrados se iba a duplicar cada 12 meses. Una década después, Moore rectificó el número, y quedó tal como la conocemos hoy: la densidad de componentes se duplicará cada dos años. Mañana, pues, la ley de Moore cumplirá medio siglo.
Cincuenta años en tecnología digital es una enormidad. Y sin embargo, los pronósticos de Moore se han cumplido a rajatabla. Al menos, hasta ahora.
Dicho sea de paso, existe un antecedente de esta predicción, en la que Moore se inspiró. Otro genio de la computación, Douglas Engelbart, precursor de las interfaces gráficas y el hipertexto e inventor del mouse, ya había anticipado, si bien no con cifras, la fenomenal miniaturización que se venía.
Aparte de su extraordinaria longevidad y su acertado vaticinio, la ley de Moore es también notable por los malentendidos, confusiones y mitos que la rodean. Uno de los principales está en su misma definición.
Qué dice
Moore no predijo que la densidad de transistores se duplicaría cada dos años y nada más. El asunto es un poco más complejo y tiene que ver con la economía de la industria del silicio (el silicio es el semiconductor clave en la fabricación de chips; de allí viene también el nombre Silicon Valley; literalmente, Valle del Silicio).
Desde que su Robert Noyce inventara los circuitos integrados, Moore había hecho no una, sino dos observaciones. La primera era patente: los chips que habían venido fabricando en Fairchild duplicaban el número de componentes cada año. La segunda era más sutil.
Moore sabía que en los circuitos simples el costo por componente era inversamente proporcional al número de componentes. Es decir, más componentes, menos costo. Pero además notó que si se seguían añadiendo componentes, se alcanzaba un punto en que el costo empezaba a aumentar. De hecho, ese es el primer gráfico que aparece en su artículo.
Moore postula que en cada momento de la evolución tecnológica hay un costo mínimo, al que se arriba cuando circuito tiene una cierta cantidad de componentes. En el momento de escribir su artículo, ese número era de 50, y estimó que en 5 años aumentaría a 1000.
De modo que sí, grosso modo, la ley de Moore postula que la densidad de los circuitos se duplicará cada dos años. Pero el aspecto económico es crucial, porque no tendría ningún sentido meter 100 veces más transistores en un cerebro electrónico cuyo costo fuese de varios millones de dólares. Y no lo tendría porque, como también observa el texto de Moore, la fabricación de chips es una industria de escala.
"Cada vez que inauguramos una arquitectura de microprocesadores hay que instalar una nueva fábrica, y hacerlo cuesta 6000 millones de dólares. Y todavía queda contabilizar el costo de la investigación y desarrollo de esa nueva arquitectura. Para amortizar todo eso hay que hacer y vender muchos chips", me explica por teléfono Germán Loureiro, gerente técnico de Intel Argentina, a quien llamé para chequear los aspectos más difíciles del artículo.
En total, el enunciado correcto de la Ley de Moore, tal como apareció en la revista Electronics, dice: "La complejidad para alcanzar el costo mínimo por componente se duplica aproximadamente cada dos años".
A propósito, habrán notado que la palabra "componentes" aparece en los párrafos precedentes con insufrible exceso redundante. Pero es el término que usa Moore en su artículo, y lo usa porque es más adecuado que "transistores". De hecho, los componentes de un chip pueden ser "transistores, resistores, diodos o capacitores", enumera Moore en una revisión de su artículo original publicada en 1995 en una revista de la Sociedad de Ingenieros de Instrumentación Foto-Óptica.
Qué es
La de Moore no es una ley de la física o la química. No se basa en la observación de un fenómeno natural, sino en el de uno muy poco natural, como lo es la fabricación de circuitos integrados.
Se trata más bien de una aguda observación que este doctor en química extrajo de su trabajo en Fairchild, y que refinó luego en Intel, la empresa que cofundó con Noyce en 1968.
Moore ha sido cauto en muchas ocasiones, incluso en su artículo de 1965, acerca de por cuánto tiempo sería posible sostener este fabuloso aumento en la densidad de los circuitos. Al principio, consideró que podría mantenerse por al menos 10 años. En la práctica su observación se probó cierta durante un tiempo cinco veces mayor. Pero Moore siempre insiste con que ninguna cantidad física puede crecer exponencialmente para siempre, y esto 100% es cierto. Pero aquí es donde surge una interesante vuelta de tuerca de su ley (que, insisto, no es una ley).
El artículo de 1965 contiene otro vaticinio genial, que rara vez se menciona y cuya precisión asombró al propio Moore. Mucho antes que Bill Gates o Steve Jobs, predijo que en el futuro tendríamos "computadoras hogareñas, controles automáticos para automóviles y dispositivos personales de comunicación portátiles". "El reloj electrónico de pulsera sólo necesita un display para ser viable hoy", remata. Si la afirmación no estuviera en una prestigiosa revista de electrónica, en 1965 habría sonado a delirio.
Cuando este pronóstico empezó a hacerse realidad, a mediados de la década del '70, la industria se basó en la ley de Moore para planificar el progreso y preparar las hojas de ruta para futuros lanzamientos. Así que podríamos estar ante una profecía autocumplida, y ya.
Pero no creo que sea así, y esto por dos motivos. Primero, porque seguir aumentando la densidad de los circuitos no era opciones, era una obligación impuesta por la competencia. Segundo, por el tema de los costos. Dicho fácil, toda la carrera del silicio se redujo a aumentar el número de componentes para alcanzar ese costo mínimo en el que una mayor densidad sería rentable. Moore predijo cuál sería ese número con 50 años de anticipación.
¿Dos años o 18 meses?
El postulado de Moore suele enunciarse como que la cantidad de componentes en un chip se duplicará cada 18 meses. Pero, ¿no eran 2 años?
Sí, son dos años, y siempre fueron 2 años (excepto, como dije, en la primera versión del artículo). La mescolanza se debe a que varios años después, basándose en el postulado de Moore, otro ejecutivo de Intel, David House, determinó que el poder de cómputo –que depende no sólo del número, sino también de la velocidad de los transistores– se duplicaría cada 18 meses.
Aparte del malentendido, la observación de House es importante porque, en última instancia, uno de los motivos por los que queremos meter más componentes en un chip es para aumentar el poder de cómputo de computadoras, smartphones y todo lo demás, lo que permite aplicaciones cada vez más complejas y ambiciosas. Muchas de las cosas que hacemos con nuestros smartphones –empezando por casi todos los jueguitos– habrían sido imposibles con las primeras computadoras personales, cuyos microprocesadores tenían 29.000 transistores. Eso era mucho, para la época, pero los chips actuales tienen más de 1000 millones de componentes. Sí, no hay error de tipeo: 1000 millones en una plaquita de silicio de unos 250 milímetros cuadrados. Es la ley más famosa de la electrónica en acción.
El planteo de House sugiere que la industria no sólo usó la ley de Moore como una hoja de ruta, sino que se volvió dependiente de ella. Si el crecimiento de la capacidad de cómputo (y otros factores) se estanca, no sólo se detendría casi todo el progreso técnico, sino que una industria económicamente muy significativa se contraería a una fracción de su tamaño actual. Como la del silicio es multiplicadora de casi todas las otras industrias, el impacto podría ser catastrófico.
De cierto modo, la civilización se ha vuelto adicta a la ley de Moore, y uno de los nubarrones en el horizonte de esta merecida celebración es que dentro de 5 o 10 años ya no seríamos capaces de seguir apretando componentes en los chips. Aquí, varios artículos sobre el inminente colapso de la ley de Moore (en inglés, y bastante técnicos):
*http://techland.time.com/2012/05/01/the-collapse-of-moores-law-physicist-says-its-already-happening/
Es inevitable, por otro lado. Aunque por ahora no ha ocurrido, llegará un momento en que la letra dura de la ley de Moore dejará de cumplirse. Pero, ¿es eso lo que cuenta?
Entra en escena otro personaje fundamental en esta historia.
Ya se nos ocurrirá algo
Otro dato anecdótico: la ley de Moore no se llamó así durante 10 años. En 1975, el ingeniero Carver Mead, colega y colaborador de Moore, acuñó la frase, que, como se puede ver, pegó. Esto sería suficiente para mencionarlo aquí, porque, al bautizarla, contribuyó mucho a su popularización. Pero, además, Mead estuvo muy ligado a la creación del artículo de 1965. Moore compartía sus gráficos con él y le consultaba acerca de cuestiones electrónicas. Pero hay más.
En un reportaje que concedió el miércoles a la revista Spectrum, del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), Mead opina que el hecho de que no podamos seguir achicando para siempre los transistores no significa que el progreso de la electrónica vaya a detenerse. A su juicio, toda vez que parece que alcanzamos un límite, surge algún descubrimiento que lo cambia todo.
Por razones obvias, la ley de Moore no puede durar para siempre, pero, tal vez, cuando ya no quede más espacio para miniaturizar, porque nos habremos topado con los límites mismos de la materia, se nos ocurra una forma revolucionaria de continuar aumentando la complejidad mientras se reduce el costo.
En todo caso, aquella observación hizo historia, fue el sello de la computación personal y se mantuvo vigente durante 5 décadas en las que todo lo demás en nuestro mundo cotidiano cambió por completo.
Para saber más
Los que quieran ahondar en el presente y, sobre todo, el futuro de la ley de Moore y de la electrónica, aquí una excelente colección de artículos de la IEEE (también en inglés):
http://spectrum.ieee.org/static/special-report-50-years-of-moores-law