Meta mejora la IA multimodal de sus gafas Ray-Ban para reconocer lugares de interés y ofrecer información sobre ellos
Meta ha anunciado la mejora de las capacidades de Inteligencia Artificial (IA) multimodal de las gafas Ray-Ban Stories, que ahora pueden reconocer lugares y puntos de referencia para ofrecer información sobre ellos.
La firma lanzó las Ray-Ban Stories, desarrolladas junto con la marca de gafas Ray-Ban, primero en Estados Unidos en septiembre de 2021, y las puso a la venta en España seis meses más tarde por 329 euros.
Este dispositivo cuenta con funciones de cámara dual de 5 MP y vídeo, además de que viene con audio incorporado para escuchar música y realizar llamadas. También es compatible con algunos de los servicios que desarrolla la propia Meta, como WhatsApp -para enviar mensajes encriptados de punto a punto o escuchar las respuestas de audio, entre otras opciones-, así como Facebook View.
La compañía anunció a finales del año pasado la integración de su asistente de asistente Meta AI en una nueva generación de sus gafas, que combina la comprensión del lenguaje con la visión computacional para ver el mundo desde la perspectiva del usuario.
Entonces, comentó que estaba probando nuevas capacidades de IA multimodal para permitir traducir un idioma de un texto que esté leyendo el usuario o crear un título divertido para una foto que haya tomado.
La firma ha comentado ahora que ha mejorado la IA multimodal de este dispositivo para que sea capaz de reconocer puntos de referencia "populares" y obtener información sobre ellos, tal y como ha comentado en Threads el director de Tecnología de Meta, Andrew Bosworth.
Esto significa que, por ejemplo, al situarse con las gafas inteligentes frente al puente Golden Gate de San Francisco (Estados Unidos), el usuario obtiene información sobre él, como el nombre por el que se le conoce o el color.
Esta mejora forma parte de una versión beta, aunque la firma espera que esté disponible "para más personas" próximamente, para lo que ha abierto una lista de espera en la que pueden apuntarse aquellos que estén interesados en experimentar con esta función.
Por otro lado, el directivo ha comentado que, más allá de las mejoras enfocadas al apartado de IA multimodal, Meta está actualizando periódicamente la experiencia general de manos libres, añadiendo comandos de voz para compartir su última interacción de Meta AI en WhatsApp, Messenger y mensajes de texto. También será posible configurar en el apartado de Voz la velocidad de reproducción de los pódcast, para que Meta AI pueda leerlos a un ritmo más lento o más rápido.
Conviene recordar que también el año pasado la compañía reconoció en agosto del año pasado, antes de la llegada de la segunda generación, que del total de sus compradores, tan solo un 10 por ciento las utiliza habitualmente.