Además de anunciar nuevos teléfonos, Google presentó herramientas basadas en inteligencia artificial, que por ahora están limitadas a los smartphones Pixel, pero que más adelante alcanzarán a más dispositivos
- 5 minutos de lectura'
En su evento anual Made by Google 2024, donde todos los años renueva su oferta de dispositivos, Google presentó cuatro nuevos smartphones, la mayor cantidad en un solo anuncio para esta compañía, que ya logró 10 millones de dispositivos vendidos en 2023 en Estados Unidos, lo que la ubica en cuarta posición en ese país detrás de Apple, Samsung y Motorola, según estimaciones de Counterpoint. ¿Cuatro teléfonos? Sí: el Pixel 9, el Pixel 9 Pro (en dos variantes: la común y la grande, es decir, el Pixel 9 Pro XL) y el plegable Pixel 9 Pro Fold. Estos equipos traen novedades previsibles en hardware: una nueva generación del chip de diseño propio que les da vida, el Tensor G4;, triple cámara trasera para los modelos Pro; carga rápida para la batería. Ese tipo de cosas; fundamentales pero, a la vez, esperables: siguen a la evolución lógica de la tecnología.
Pero Google anunció también varias novedades relacionadas con la inteligencia artificial (con Google AI y con Gemini), y con la fotografía computacional (es decir, el procesamiento de los datos que obtiene el sensor de la cámara para exprimir su capacidad al máximo), dos entornos donde la compañía es un jugador clave. Para quien no conoce los teléfonos Pixel, de limitada distribución fuera de Estados Unidos y algunos países de Europa: casi siempre están en el podio del ranking de smartphones con mejores cámaras, y tienen también múltiples funciones exclusivas basadas en software, que luego suelen ir llegando -con algo de demora- al resto del ecosistema Android.
Hoy, durante el evento, Google hizo una serie de anuncios relacionados con estos temas que son un excelente ejemplo de cómo la aplicación a casos concretos de la inteligencia artificial puede derivar en usos geniales.
Herramientas de IA que llegan a los Pixel 9
Analizá mis capturas de pantalla: una función nueva tiene que ver con el uso de capturas de pantalla como sistema rápido de archivo, tanto de conversaciones como datos que vimos al pasar y que usamos como recordatorios visuales. La IA de Google analiza el contenido de las capturas y transforma esos puntitos de color que componen cada imagen en información que podemos buscar. Google ya había adelantado esta función en mayo en el Google I/O; ahora estará disponible para los teléfonos Pixel 9.
Agregame a la foto: una función muy atractiva es la de agregar a alguien a una foto, repitiendo la toma pero con otras personas en cámara. Somos dos y queremos una foto juntos, pero que no sea una selfie, y no tenemos a quién pedirle que nos saque la foto. Así que elegimos el lugar, uno posa -dejando el lugar para la otra persona-, sacamos la foto, invertimos los roles -cuidando de no mover demasiado el celular y tenemos como resultado una foto donde aparecemos ambos. Ya había algunas herramientas que intentaban hacer esto -y se puede hacer con una cámara de rollo, con algo de pericia- pero esta herramienta “entiende” la imagen para hacer el ajuste y determinar qué se debe ver, qué debe quedar oculto, reencuadrar si el celular se movió un poco entre toma y toma, etcétera.
Agrandá el fondo: usando inteligencia artificial, es posible recomponer una imagen y agregar contorno (el lienzo, como se le dice en las apps de edición) de tal manera que habilita la posibilidad de cambiar el lugar de la foto que tiene más peso visual, pero sin recortar el original: para eso el sistema analiza el fondo de la imagen y lo amplía. En el ejemplo que pone Google, una hiedra de fondo; funcionará igual de bien con otros fondos más o menos monótonos, como una pared de ladrillo o una playa.
Cambiá el fondo: más lúdica, esta opción permite cambiar todo el fondo de una imagen, y agregar cualquier cosa, como si nos hubiéramos sacado una foto con un telón verde detrás.
Mejorá el zoom: con esta herramienta podremos, idealmente, hacer un acercamiento en una foto y regenerar parte del detalle perdido con el zoom digital. La IA estimará qué se hubiera visto si el acercamiento fuera real -es decir, óptico- así que el resultado puede ser muy bueno o muy malo. Habrá que probarlo.
Creá imágenes con una descripción: el nuevo Pixel Studio trae todas las herramientas de creación de imágenes a pedido -es decir, con una descripción-, uno de los puntos más llamativos de la ola actual de herramientas de inteligencia artificial, y donde Google venía corriendo la carrera bien desde atrás, intentando alcanzar a ChatGPT o Meta AI. Ahora, como en esas herramientas, tendremos un lugar donde dar rienda suelta a nuestra imaginación.
Así funciona el nuevo Gemini de Google
Consultá de todo: para lo último lo que -a largo plazo- es más llamativo, pero que por ahora solo está disponible en inglés. Primero, la adopción definitiva de Gemini como el reemplazo del Asistente de Google, ahora con la capacidad de entender el contexto de una consulta. Por ejemplo, analizando el pedido en base a lo que el teléfono está mostrando la pantalla.
Hablá sin parar: para suscriptores de la versión paga, llega Gemini Live, una versión del chatbot que nos dará charla sobre cualquier tema y que tiene, según Google, la ventana de memoria más amplia de los chatbots de inteligencia artificial generativa actuales; es decir, podemos tener una conversación continua en la que podemos hacer referencia a algo que charlamos en el pasado, y entenderá de qué estamos hablando; funciona con texto escrito o hablándonos al oído con un par de auriculares, al estilo de la película Her (o del modo oral de ChatGPT con GPT-4o).