Google Assistant se actualiza: mejoras para reconocer los nombres de contactos, el contexto y las conversaciones
3 minutos de lectura'

Google ha introducido mejoras en su asistente que permiten que este entienda con mayor efectividad el contexto del usuario para ser más útil en tareas como programar alarmas y temporizadores, tener conversaciones más naturales, y entender y pronunciar con más precisión los nombres de la lista de contactos.
El usuario podrá ayudar al asistente de Google a “enunciar y reconocer” los nombres de su lista de contactos de la misma manera en que él los pronuncia, sin que el asistente se quede con ninguna grabación de esas pronunciaciones.
Este proceso le permitirá al sistente entender mejor al usuario cuando repita el nombre, así como pronunciarlo mejor él mismo. La herramienta estará disponible en inglés en los próximos días, pero Google asegura en su blog que esperan expandir el servicio a otros idiomas “pronto”.
En segundo lugar, ahora el asistente comprende el contexto “de forma más precisa” y entiende lo que el usuario trata de hacer al ordenar algo, gracias a la mejora de su modelo de comprensión del lenguaje natural. La tecnología de vanguardia BERT, que permite procesar las palabras en relación de unas con otras, ha posibilitado este avance.
De este modo, ahora existe “casi un 100 por cien” de precisión a la hora de programar alarmas y temporizadores aunque el usuario se exprese de manera diferente a la hora de programarlas que de cancelarlas o corte la frase a la mitad para modificar el tiempo del temporizador, por ejemplo.
La compañía asegura que en el futuro llevará esta prestación a otros casos de uso para que el asistente de Google pueda seguir aprendiendo a entender mejor a los usuarios. Actualmente, está disponible en inglés para alarmas y temporizadores en altavoces inteligentes, solo en Estados Unidos.
Por último, también han aplicado la tecnología BERT para “mejorar la calidad” de las conversaciones del usuario con su asistente. Este utiliza ahora las interacciones previas, de modo que comprende lo que se muestra en la pantalla de un ‘smartphone’ o pantalla inteligente.
Esta mejora permite que el sistema responda a preguntas que la persona sigue haciendo en relación con lo que se ha dicho anteriormente en la misma conversación o con lo que el usuario está viendo en pantalla. El objetivo es que la conversación sea más “natural” y referencial a lo que el usuario estaba buscando, y para ello en lugar de analizar las palabras de una frase una a una ahora analiza cada palabra en relación con el resto.
Google pone el ejemplo de una conversación en la que el usuario está hablando sobre la ciudad de Miami con el asistente. Con las nuevas mejoras, si la persona solicita que le enseñe “las playas más bonitas”, el asistente entenderá que se refiere a playas localizadas en Miami.
Otras noticias de Internet
- 1
Qué es el botón “unirse” de WhatsApp y por qué generó confusión en redes
- 2
El truco para conectar ChatGPT con Canva y crear presentaciones increíbles
- 3
OpenAI presenta los nuevos modelos o3 y o4-mini, los primeros con capacidad para “pensar con imágenes”
- 4
Cómo activar el “modo Conejo de Pascua” en WhatsApp