Una nueva generación de microchips específicos para inteligencia artificial avanza de la mano de compañías innovadoras; sin embargo, ninguna logró aún hacer mella en la indiscutida líder del mercado
- 8 minutos de lectura'
“Quien controla los GPU, controla el universo”. Este giro de una famosa frase de “Dune”, un clásico de ciencia ficción, se escucha mucho por estos días. El acceso a las GPU –la unidad de procesamiento gráfico–, y en particular a las fabricadas por Nvidia, el proveedor líder, es vital para cualquier empresa que quiera ser tomada en serio en el ámbito de la inteligencia artificial (IA). Los analistas hablan de empresas “ricas en GPU” o “pobres en GPU”, dependiendo de cuántos chips tengan. Los grandes jugadores tecnológicos se jactan de sus gigantescas reservas. El dominio de Nvidia ha elevado su valor de mercado por encima de los US$2 billones. El 22 de mayo informó que sus ventas para el trimestre que finalizó en abril crecieron 262% en la comparativa interanual.
Los GPU realizan el trabajo computacional pesado necesario para entrenar y operar grandes modelos de IA. Sin embargo, curiosamente, no fue eso para lo que fueron diseñados. Las siglas, en inglés, significan “unidad de procesamiento de gráficos”, porque estos chips fueron diseñados originalmente para procesar gráficos de videojuegos. Resultó que, afortunadamente para Nvidia, podían reutilizarse para cargas de trabajo de IA.
¿Sería mejor diseñar chips de IA especializados desde cero? Eso es lo que muchas empresas, pequeñas y grandes, están haciendo ahora, en un intento por destronar a Nvidia. Los chips de IA prometen hacer que la construcción y la ejecución de modelos de IA sean más rápidas, más económicas o ambas cosas. Cualquier empresa que pueda representar una amenaza creíble para el campeón reinante no tendrá escasez de clientes, a quienes no les gustan sus elevados precios y su falta de oferta.
Los chips de procesamiento ordinarios, como los que se encuentran dentro de las computadoras portátiles y de escritorio, están diseñados en esencia para hacer una cosa tras otra. Los GPU, por el contrario, contienen varios miles de motores de procesamiento, o “núcleos”, que les permiten ejecutar miles de versiones de la misma tarea sencilla (como dibujar parte de una escena) al mismo tiempo. De manera similar, ejecutar modelos de IA implica ejecutar muchas copias de la misma tarea en paralelo. El descubrimiento de cómo reescribir el código de IA para ejecutarlo en GPU fue uno de los factores que desencadenó el actual auge de la IA.
Sin embargo, los GPU tienen sus limitaciones, particularmente en lo que respecta a la velocidad con la que se pueden mezclar datos dentro y fuera de ellos. Los modelos modernos de IA funcionan con una gran cantidad de GPU y chips de memoria interconectados. Mover datos rápidamente entre ellos es fundamental para el rendimiento. Al entrenar modelos de IA muy grandes, algunos núcleos de GPU pueden estar inactivos hasta la mitad del tiempo mientras esperan datos. Andrew Feldman, CEO de Cerebras, una startup con sede en Sunnyvale, California, lo compara con un supermercado colapsado durante la jornada previa al Día de Acción de Gracias. “Todo el mundo está en la fila, por lo que hay bloqueos en el estacionamiento, bloqueos en los pasillos, bloqueos en las cajas. Eso es exactamente lo que está pasando con una GPU”, explica.
La respuesta de Cerebras es colocar 900.000 núcleos, además de mucha memoria, en un único y enorme chip, para reducir la complejidad de conectar múltiples chips y canalizar datos entre ellos. Su chip CS-3 es el más grande del mundo. “Nuestro chip es del tamaño de un plato; una GPU es del tamaño de un sello postal”, dice Feldman.
Más velocidad, menos energía
Las conexiones en chip entre núcleos funcionan cientos de veces más rápido que las conexiones entre GPU separadas, afirma Cerebras. A su vez, su enfoque reduce el consumo de energía a más de la mitad, para un nivel dado de rendimiento, en comparación con la oferta de GPU más potente de Nvidia.
Groq, otra startup, está adoptando un enfoque diferente. Sus chips de inteligencia artificial, llamados unidades de procesamiento del lenguaje (LPU), están optimizados para ejecutar grandes modelos de lenguaje (LLM) con especial rapidez. Además de contener su propia memoria, estos chips también actúan como enrutadores, pasando datos entre los LPU interconectados. El software de enrutamiento inteligente elimina la variación en la latencia o el tiempo dedicado a esperar datos, lo que permite que todo el sistema funcione al mismo tiempo. Esto aumenta enormemente la eficiencia y, por tanto, la velocidad: Groq afirma que su LPU puede ejecutar películas grandes 10 veces más rápido que los sistemas existentes.
Otro enfoque es el adoptado por MatX, también con sede en California. Los GPU contienen características y circuitos que brindan flexibilidad para los gráficos, pero no son necesarios para las películas, dice Reiner Pope, uno de los fundadores de la empresa. El chip en el que está trabajando su empresa, similar a una GPU, elimina esos elementos innecesarios, aumentando el rendimiento al hacer menos cosas, pero mejor.
Otras startups en esta área son Hailo, con sede en Israel; Taalas, con sede en Toronto; Tenstorrent, una empresa estadounidense que utiliza la arquitectura RISC V de código abierto para construir chips de inteligencia artificial; y Graphcore, una empresa británica que -según circuló- está a punto de ser vendida al conglomerado japonés SoftBank. Las grandes empresas tecnológicas también están construyendo chips de IA. Google ha desarrollado sus propias “unidades de procesamiento tensorial” (TPU), que pone a disposición como un servicio de computación en la nube. (Presentó su última versión el 14 de mayo). Amazon, Meta y Microsoft también han fabricado chips personalizados para inteligencia artificial basada en la nube; OpenAI también planea hacerlo. AMD e Intel, dos grandes fabricantes de chips, ya fabrican chips similares a las GPU.
Un peligro para los recién llegados es que sus esfuerzos de especialización puedan llegar demasiado lejos. Diseñar un chip normalmente lleva dos o tres años, dice Christos Kozyrakis, científico informático de la Universidad de Stanford, lo cual es “una enorme cantidad de tiempo” dada la rapidez con la que están mejorando los modelos de IA. La oportunidad, dice, es que las nuevas empresas podrían terminar con un chip que sea mejor para ejecutar modelos futuros que los GPU menos especializados de Nvidia. El riesgo es que se especialicen en lo equivocado.
Habiendo trabajado anteriormente en Google, que desarrolló la actual arquitectura “transformadora” utilizada en los LLM, Pope, de MatX, confía en que su empresa tiene “una bola de cristal bastante buena”. Y, si aparece un nuevo enfoque, su chip es lo suficientemente versátil como para adaptarse, dice. Feldman agrega que toda la inteligencia artificial moderna sigue siendo simplemente “álgebra lineal escasa” encubierta, algo que el chip de Cerebras puede hacer muy rápidamente.
Otro desafío es que la capa de software de Nvidia para programar sus GPU, conocida como CUDA, es un estándar industrial de facto, a pesar de ser notablemente complicada de usar. “El software es el rey”, dice Kozyrakis, de Stanford, y Nvidia tiene una ventaja significativa, ya que ha construido su ecosistema de software durante muchos años. Las nuevas empresas de chips de IA tendrán éxito sólo si pueden persuadir a los programadores de reajustar su código para ejecutarlo en sus nuevos productos. Ofrecen kits de herramientas de software para hacer esto y brindan compatibilidad con los principales marcos de aprendizaje automático. Pero ajustar el software para optimizar el rendimiento en una nueva arquitectura es una tarea difícil y compleja, otra razón más por la que es difícil destronar a Nvidia.
Los mayores clientes de chips de IA, y de los sistemas construidos en torno a ellos, incluyen constructores de modelos (como OpenAI, Anthropic y Mistral) y gigantes tecnológicos (como Amazon, Meta, Microsoft y Google). Puede tener sentido que estas empresas adquieran una startup de chips de IA y se queden con su tecnología, con la esperanza de superar a la competencia. En lugar de intentar competir con Nvidia, las nuevas empresas de chips podrían posicionarse como objetivos de adquisición.
Pope dice que MatX apunta al “nivel superior” del mercado, lo que sugiere que espera vender sus chips (si no toda la empresa) a compañías como Openai, Google o Anthropic, cuyos modelos de inteligencia artificial son los más avanzados. “Estaríamos contentos con muchos tipos de salidas”, afirma, y enseguida añade: “Pero creemos que aquí hay un negocio sostenible como empresa independiente”. Eso aún está por verse. Cerebras, por su parte, se estaría preparando para una oferta pública inicial en la Bolsa. Hasta ahora, ninguna de las nuevas empresas ha hecho mella en la posición dominante de Nvidia. Mucha gente espera que uno de ellos lo haga.
Otras noticias de Comunidad de Negocios
Se hacen 70.000 hectáreas. Fuerte expectativa por el auge de un alimento que todavía se consume muy poco
Avance. YPF le compró a ExxonMobil y Qatar Energy su participación en Sierra Chata
"Un comunista". Caputo dijo que la gente compra dólares porque se va de vacaciones, habló de la polémica de la ex AFIP y criticó a Kicillof
Más leídas de Negocios
Invirtió US$2 millones. La marca que vuelve a la calle Florida y apuesta a la producción nacional
Aerolíneas Argentinas. Buenos Aires asegura que inició contactos por la línea aérea de bandera
“Otra realidad”. Fue a estudiar ciencias forenses, pero conquistó Barcelona con un postre bien argentino
"La primera opción". ExxonMobil reconoció a Tenaris como proveedor del año