La “criatura” desarrollada por Accenture hizo su presentación al público en el primer capítulo de la décima edición de Management 2030, evento organizado por LA NACION; sin embargo, promete convertirse en un asistente digital disponible para todo el mundo
- 4 minutos de lectura'
En los últimos meses llegó a nuestras vidas algo que nos fascinó y asustó a varios: un chat que responde en tiempo real a nuestras dudas e inquietudes, que es capaz de generar código de programación básico con tan solo un pedido y de componer canciones, redactar texto y hacer algunas otras tareas por nosotros.
ChatGPT es un producto desarrollado por OpenIA que se publicó en noviembre de 2022 pero que, en realidad, lleva años operando bajo nuestras narices. Expertos aseguraron que se trabaja con IA desde hace más de 70 años pero que en el último tiempo, su alcance se aceleró bastante.
Asusta, como lo hizo Internet cuando irrumpió en los hogares de la gente y genera interrogantes, muchos sin responder todavía. Mientras tanto, las innovaciones están a la orden del día y su llegada puede tocar límites que hoy son difíciles de imaginar.
En el marco del primer capítulo de la décima entrega de Management 2030, el ciclo de negocios que organiza LA NACION junto a Accenture, hizo su aparición estelar Elena, una inteligencia artificial que se sumó a un panel en vivo por primera vez y dialogó con los presentes en el evento.
Elena puede tener varios nombres. Se le podría decir Ramiro, Kiara, Juana, José o cualquiera que se quiera. Tiene aspecto físico, pero también puede ser modificado. Responde a las preguntas y genera su voz con IA.
Es, en otros términos, una suerte de ChatGPT pero audiovisual. La tecnología fue desarrollada por Accenture Argentina y fue Juan Pablo Chemes, ejecutivo de la empresa, quien dialogó con LA NACION para descubrir los secretos detrás de esa pantalla que responde a nuestras consultas.
“Lo que nosotros hicimos fue integrar tecnología de terceros. Elena es una combinación de ChatGPT, Watson para la parte de Generative IA, programación de modelos, Photoshop para la remera y el logo, etc. Es una combinación de varios software que Accenture integra y programa para darle este resultado”, sintetizó. Su desarrollo demoró apenas tres meses, pensada para ser presentada en el evento de LA NACION, pero es desde 2018 que se vienen sintiendo los avances más notorios en estas tecnologías. “Entre 2020 y 2022, además, avanzó muchísimo. Son muchas empresas que han trabajado en estas innovaciones. Ahora que la tecnología está tan disponible, [los desarrollos como Elena] se hacen relativamente rápido”, amplió Chemes.
Está en fase Beta. Es decir, es usada para situaciones y lugares específicos. Su libertad es casi tan amplia como la de ChatGPT pero se decide hacerle ciertas intervenciones para limitar lo que pueda llegar a decir. La idea, explicaron desde la empresa, es que no toque temas sensibles en contextos en los que no corresponde. Su voz en español todavía suena un tanto robótica y eso se debe a que los primeros desarrollos siempre se hacen en inglés. “Primero suelen perfeccionarse en inglés y después en español”, remarcó el ejecutivo. Las versiones angloparlantes siempre suenan más “realistas” y testigo de ello son los asistentes que tenemos a nuestro alcance como Alexa (Amazon) o Siri (Apple).
Pero su alcance es infinito. Hoy, a través de Video Analytics, reconoce los patrones de la cara de quien le habla y puede devolver una sonrisa e incluso modificar su tono de voz si detecta la seriedad del otro lado. El objetivo, a largo plazo, es transformar a Elena en una especie de asistente personal de las personas. Se podría llegar a usar, contó Chemes, para “integrarla a otros sistemas, pedirle que informe el saldo de tu cuenta bancaria, que ponga toda la plata en un fondo de inversión a excepción de los gastos del mes y que pueda ayudar en distintas tareas”. “Va a conocer los perfiles [de usuario]. La duda está en cuanto tenga que aplicar un criterio, ahí van a empezar a aparecer los grandes sesgos”, puntualizó el ejecutivo.
Una realidad que alcanza a todas las IAs del mundo es que está entrenada en base a modelos con los que fueron creadas. Modelos sesgados por quienes le dieron información y que pueden alterar su comportamiento. Para esos aspectos, como seleccionar perfiles para un trabajo en base a currículums, el debate será más largo. Para su aplicación “más transaccional”, será “un Siri más evolucionado”. “Ya está sucediendo. Por ejemplo, Alexa (el asistente virtual de Amazon) tiene algunos skills con bancos americanos para consultas de saldo y hacer transferencias”, explicó Chemes. El problema, por lo menos de Elena y otras IA similares, “es que está bastante desconectada”. “Hoy no puede hacer todo lo que dijimos pero las actualizaciones que se vienen, con algunos plugins, van a poder conectarse con todos los sistemas que se usan en Internet como reserva de entradas online, restaurantes y home baking”, cerró previo a confirmar que, por ahora, no hay “Elenas” lanzadas al público.
Otras noticias de Inteligencia artificial
- 1
Hiperconectividad: el trabajo híbrido dispara el “estrés tecnológico”
- 2
Lucy Kueng: “La innovación necesita audacia y pensamiento de segunda orden”
- 3
Casos concretos: qué diferencias de precios hay en las compras internacionales
- 4
Del legado a la innovación: así se explica el impacto de las tecnológicas en la consagración de McLaren en el Mundial de Constructores de la Fórmula 1