Dentro del evento online Converge AI, organizado por Globant, el vicepresidente de tecnología empresarial de Nvidia adelantó las temáticas en las que trabaja la compañía para hacer avanzar la industria de la inteligencia artificial
- 4 minutos de lectura'
En el marco del evento Converge AI: Disrupt, Delight, Connect, organizado por Globant, Martín Nanni, director de experiencia para Europa, Oriente y Asia de Globant, entrevistó a John Fanelli, Vicepresidente de Tecnología Empresarial en Nvidia, la compañía responsable de diseñar los procesadores que sirven de cerebro electrónico para las inteligencias artificiales generativas como ChatGPT o Gemini.
En el inicio de la charla, Nanni le preguntó a Fanelli por las tendencias emergentes en la infraestructura de la IA, es decir, los componentes sobre los que funciona la IA, y en los que Nvidia juega un rol central, tanto como para transformarse en una de las compañías más valiosas del mundo, superando a Apple o Microsoft: vale más de 3 billones (es decir, millones de millones) de dólares.
Este miércoles, la compañía informó ganancias por 19.300 millones de dólares, un crecimiento del 109% respecto del mismo periodo del año pasado, con una facturación de 35.100 millones de dólares.
Una de las cosas que Fanelli destacó es que los procesadores de próxima generación de Nvidia para IA estarán refrigerados por líquido (como las PC gamer), lo que facilitará la disipación de calor y logrará una mayor eficiencia energética con un menor costo general, uno de los grandes desafíos actuales y futuros para los centros de datos donde funcionan los motores de inteligencia artificial. “El mundo está pasando una transición en el centro de datos, de la CPU [tradicional] a la computación acelerada, o GPU, un cambio de inversión durante una década de un billón de dólares. Y hay preocupación de que con esa computación acelerada los costos energéticos aumentarán, y esto tendrá un impacto en la huella de carbono y el calentamiento global”, explicó Fanelli; de ahí el interés por cambiar los sistemas de refrigeración de los chips lo antes posible. De hecho, según el ejecutivo de Nvidia “con las nuevas GPU y el software más reciente logramos reducir la cantidad de energía necesaria para entrenar [una IA] unas 2000 veces, y para inferencias [lo que hace un usuario al darle una tarea] unas 10.000 veces”, así que terminan usando menos procesadores en total, lo que reduce el consumo energético.
Eso se logró, en parte, gracias a ChipNeMo, una IA de uso interno de Nvidia que ayuda a los ingenieros a diseñar los nuevos procesadores, escribir código de muestra y buscar errores: “nuestros ingenieros piensan en esta herramienta como su compañero de IA”; es lo que en la industria se conoce como Agente de IA, y que está creciendo mucho; es como una IA general (ChatGPT, Gemini, Copilot) pero orientada a una tarea específica, o como una red de pequeñas IA, cada una con una misión concreta. “Es algo que realmente está emergiendo ahora”, dijo Fanelli; por ejemplo, una compañía en la que la persona de marketing le pide a una IA que arme un plan de marketing; la misión se distribuirá entre agentes especializados (el agente de investigación, el creativo, el mensajero, el que transformará todo eso en un PowerPoint): son todas IA cumpliendo tareas específicas y trabajando en equipo.
Todo eso requiere procesadores capaces de procesar las tareas, pero también de software que transforme el pedido del usuario en algo que la máquina pueda calcular; según le explicó Fanelli a Nanni, Nvidia tiene tres veces más desarrolladores de software que ingenieros de chips, capaces de crear diseños básicos de modelos grandes de lenguaje (el corazón de la IA generativa) para tener humanos digitales, centros de atención al cliente gestionados por IA, o sistemas de búsqueda de nuevos fármacos, todos basados en esta idea de los agentes de IA creados por software.
¿Podrán estos agentes de IA hacer cualquier cosa? ¿Sirven para cualquier tarea? “Yo diría que hay que mirar al área de la compañía donde se están usando humanos para hacer varias tareas, sea contabilidad o ingeniería o marketing o logística, o lo que sea que hacen esos humanos para hacer otros humanos más productivos -reflexionó Fanelli-. Y ahí nuestra visión es la de sumar a la IA como un compañero de trabajo, para ser más productivos, y la empresa ganará más dinero. No conozco a nadie al que le hayan dado nunca el 100% de su presupuesto. Así que cuanto más dinero hagas con el compañero de trabajo de IA, vas a tener más dinero libre para usar para otras ideas que todavía no hubo tiempo de implementar”.
El vicepresidente de Nvidia destacó en la charla el trabajo de Globant en la creación de este humano digital, un chatbot de IA que puede servir para situaciones como una consulta médica o financiera, un momento de vulnerabilidad en el que el usuario necesita que la inteligencia artificial responda a su pedido con un toque de humanidad.
LA NACIONOtras noticias de Inteligencia artificial
Más leídas
Horóscopo. Cómo será tu semana del 24 al 30 de noviembre de 2024
"Me jode cada vez". Arde Ferrari: Leclerc dejó la radio abierta y explotó contra su compañero Carlos Sainz
De 7 meses preso a campeón. Maravilla Martínez, el 9 creyente y figura de Racing que llenó de goles la Sudamericana
El subibaja de Colapinto. De la larga noche con un auto destrozado a reconciliarse con los muros y lograr la misión