La compañía mostró como es posible tener un avatar realista en la PC para que nos ayude con las tareas, en vez de depender de una línea de comando de un chatbot
- 4 minutos de lectura'
Nvidia ha presentado Project R2X, un asistente de Inteligencia Artificial (IA) en forma de avatar de PC con apariencia realista que dispone de capacidades para analizar y comprender lo que se muestra en el escritorio y, en base a ello, ayudar en el uso de aplicaciones, llamadas de videoconferencia y resumir documentos, entre otras funciones.
La tecnológica ha dado a conocer este su nuevo proyecto R2X en el marco de las novedades anunciadas en la feria tecnológica CES 2025, donde ha señalado que se trata de un asistente diseñado para ponerle “rostro” a la IA.
En este sentido, Project R2X es un asistente que, en lugar de interactuar como un chatbot se muestra en forma de avatar y, por tanto, interactúa con los usuarios como un personaje animado representado de forma realista.
Entre sus capacidades, Nvidia ha señalado que el avatar puede ver lo que se está mostrando en el escritorio y analizar dicha información para, en torno a ello, llevar a cabo distintas funciones, tal y como ha compartido en un comunicado en su web.
Por ejemplo, R2X puede ofrecer información detallada al usuario, así como ayudar con el uso de aplicaciones de escritorio o durante llamadas de videoconferencia. Siguiendo esta línea, el asistente también puede ejecutar otras tareas como leer y resumir documentos, todo ello mediante una interacción con un personaje animado que actúa de forma realista a través de la pantalla del PC.
Para conseguir esta apariencia, el avatar se renderiza utilizando la tecnología Nvidia RTX Neural Faces, un nuevo algoritmo de IA generativa que aumenta la rasterización tradicional -el proceso por el que una imagen en formato gráfico vectorial se convierte en un conjunto de píxeles- con “píxeles generados completamente”.
Además, el rostro del avatar se anima con un nuevo modelo llamado Nvidia Audio2Face-3D, que mejora el movimiento de los labios y la lengua para conseguir un aspecto más natural.
La tecnológica ha explicado igualmente que, para llevar a cabo sus tareas, R2X puede conectarse a servicios de IA en la nube, como es el caso del modelo GPT4o de Open AI o Grok de xAI. Asimismo, también puede ejecutarse en los modelos integrados en los microservicios NIM y Blueprints de IA de Nvidia.
NIM y Llama Nemotron
Este asistente, que se ha presentado como vista previa, está basado en nuevos modelos básicos desarrollados por Nvidia, que se ejecutan localmente en PC NVIDIA RTX y que están diseñados para potenciar “humanos digitales, la creación de contenido, la productividad y el desarrollo”, tal y como ha puntualizado en un comunicado en su blog.
En concreto, los nuevos modelos están acelerados por las nuevas GPU GeForce RTX Serie 50, y se ofrecen integrados en los servicios Nvidia Inference Microservice (NIM). Esto es, el conjunto de microservicios de inferencia de la compañía que reúne soluciones de software escalables basadas en IA para agilizar la implementación de esta tecnología en diversos casos de uso.
En este marco, Nvidia ha adelantado que lanzará una serie de microservicios NIM para los PC RTX AI de los principales desarrolladores de modelos de IA, como son Black Forest Labs, Meta, Mistral y Stability AI. Con ello, abarcará casos de uso como LLM, modelos de lenguaje de visión, generación de imágenes o extracción de PDF, entre otras capacidades.
Siguiendo esta línea, también ha presentado su nueva familia de modelos Llama Nemotron que, compuesta por las versiones Nano, Súper y Ultra, se han diseñado como modelos abiertos LLM que proporcionan una “alta precisión en una amplia gama de tareas de IA”.
En concreto, la tecnológica se ha referido a la versión Nano del modelo, que se ofrecerá como microservicio NIM para PC RTX AI, y que permitirá llevar a cabo tareas como el seguimiento de instrucciones, la codificación y las matemáticas.
Teniendo todo ello en cuenta, la compañía ha detallado que Project R2X es una demostración de cómo los usuarios y desarrolladores RTX pueden utilizar los microservicios NIM para crear agentes y asistentes de Inteligencia Artificial (IA).
Asimismo, Nvidia ha señalado que para llevar a cabo sus propios proyectos, los desarrolladores podrán descargar, configurar y ejecutar estos microservicios NIM a partir de febrero en PC con Windows 11 a través del Subsistema de Windows para Linux (WSL). Asimismo, serán compatibles con dispositivos que integren las GPU GeForce RTX serie 50, GeForce RTX 4090 y 4080, y NVIDIA RTX 6000 y 5000.
Otras noticias de Inteligencia artificial
- 1
Así se puede comprar, vender o transferir dólares en Mercado Pago: el paso a paso
- 2
Son argentinos, tienen 21 y 22 años, y crearon una startup que utiliza IA para competir en ventas online
- 3
Es periodista de TV y tiene ELA, pero regresa a las pantallas gracias a un avatar gestionado por una inteligencia artificial
- 4
Los tres tipos de inteligencia que definen a las personas más exitosas, según la IA