iPhone 16: así es la función tipo Google Lens que trae el nuevo smartphone de Apple
Visual Intelligence es una nueva herramienta de búsqueda visual que llegará al smartphone más moderno de Apple, y que aprovecha el nuevo botón para activar la cámara
- 2 minutos de lectura'
La nueva familia de smartphones de Apple, iPhone 16, introduce la nueva herramienta inteligencia visual que, al estilo de Google Lens, permite obtener información sobre objetos y lugares con solo apuntar con la cámara.
iPhone 16 es una realidad desde este lunes, cuando Apple ha presentado sus nuevos smartphones con el sistema Apple Intelligence, junto con los relojes de la serie Watch 10 y los auriculares AirPods 4.
La nueva serie de teléfonos móviles incluye en un conjunto de herramientas denominado Control de Cámara, que incluirá inteligencia visual, con la que los usuarios podrán “obtener información sobre objetos y lugares” de su alrededor.
El funcionamiento de esta herramienta de inteligencia artificial es similar al de Google Lens, ya que utiliza la cámara para lanzar búsquedas, por ejemplo, para ver los horarios y valoraciones de restaurantes, añadir eventos al calendario desde carteles o identificar razas de perros.
Así funciona Visual Intelligence de Apple
Según ha informado Apple en una nota de prensa, inteligencia visual se incorporará el próximo año a Control de Cámara en aquellos países y regiones donde esté disponible el sistema Apple Intelligence.
Asimismo, el Control de Cámara también dará acceso a herramientas de terceros con conocimientos específicos, por ejemplo, para buscar el lugar donde se vende un artículo concreto en Google o resolver problemas con la ayuda de ChatGPT. Apple matiza que los usuarios podrán decidir cuándo quieren usar las herramientas de terceros y qué información comparten.