Alexa, el asistente virtual de Amazon, podrá imitar la voz de los miembros de la familia, incluso si murieron
Para crear la función, la empresa tuvo que aprender a hacer una “voz de alta calidad’' con una grabación más corta, a diferencia de las horas de grabación en un estudio
- 2 minutos de lectura'
EE.UU. (AP).- Alexa, el asistente virtual de Amazon, pronto podrá imitar la voz de los miembros de la familia, incluso si ya fallecieron. Esta función, presentada en la conferencia Re:Mars de Amazon en Las Vegas, está en desarrollo y permitiría al asistente virtual imitar la voz de una persona concreta a partir de una grabación de menos de un minuto.
El vicepresidente senior y director científico de Alexa, Rohit Prasad, dijo en el evento ayer que la intención de esta función era crear una mayor confianza en las interacciones que los usuarios tienen con Alexa mediante la inclusión de más “atributos humanos de empatía y afecto”.
“Estos atributos se han vuelto más importantes durante la actual pandemia, cuando muchos de nosotros hemos perdido a nuestros seres queridos”, dijo Prasad y agregó: “Aunque la inteligencia artificial no puede eliminar el dolor de la pérdida, definitivamente puede hacer que los recuerdos perduren”.
En un video reproducido por Amazon en el evento, un niño pequeño pregunta: “Alexa, ¿puede la abuela terminar de leerme el Mago de Oz?’’ A continuación, Alexa reconoce la petición y cambia de voz imitando a la abuela del niño. El asistente de voz sigue leyendo el libro con esa misma voz.
Según Prasad, para crear la función, la empresa tuvo que aprender a hacer una “voz de alta calidad’’ con una grabación más corta, a diferencia de las horas de grabación en un estudio.
Amazon no proporcionó más detalles sobre esta característica, que seguramente suscitará más preocupaciones en términos de privacidad y cuestiones éticas sobre el consentimiento.
Microsoft, competidor de Amazon, manifestó esta semana que reduciría sus ofertas de voz sintética y fijaría directrices más estrictas para “garantizar una participación activa” de la persona cuya voz se recrea.
El martes, Microsoft informó que limitaría los clientes que pueden utilizar el servicio, aunque seguiría destacando los usos aceptables, como un personaje interactivo de Bugs Bunny en las tiendas de AT&T.
“Esta tecnología tiene un emocionante potencial en el ámbito de la educación, la accesibilidad y el entretenimiento, pero también resulta fácil imaginar cómo podría utilizarse para suplantar a los oradores y engañar a los oyentes de forma inapropiada”, afirmó en un blog Natasha Crampton, que dirige la división de ética de la inteligencia artificial de Microsoft.
Temas
Otras noticias de Amazon
Más leídas de Sociedad
“Un aumento sostenido”. Las tres razones por las que un hospital universitario registra un boom de demanda
Quejas y mucho enojo. Ya comenzó el paro escalonado de subtes: a qué hora interrumpe el servicio cada línea
¿Quién es Andrés Palau? La “oveja descarriada” heredera de un legado que convocará a una multitud en Mendoza
Crisis educativa. Preocupa que menos de la mitad del país cuenta con datos fehacientes de sus estudiantes