Las dos tendencias corporativas son la de dejar que los empleados usen esta tecnología libremente o bien prohibirla; la solución posiblemente se encuentre en el medio
- 5 minutos de lectura'
ChatGPT y Bard son dos de las herramientas de inteligencia artificial generativa (GenAI; no confundir con AGI, que viene de Artificial General Intelligence) más populares del momento, ya que son capaces de crear contenido nuevo y original. Sin embargo, un estudio de la firma Salesforce revela que los empleados que utilizan o planean utilizarla no saben cómo hacerlo de forma segura.
El estudio, que encuestó a más de 4000 personas, descubrió que el 73% de los encuestados cree que GenAI introduce nuevos riesgos de seguridad, pero que solo el 40% sabe cómo mitigarlos. En simultáneo, un sondeo patrocinado por el fabricante de chips AMD a 2500 ejecutivos del área de IT con cargos globales, reveló que, aunque esta tecnología presenta claras oportunidades para que las organizaciones sean más productivas, eficientes y seguras, los encuestados expresaron su incertidumbre sobre la oportunidad de adoptarla debido a la falta de planes de implementación.
Dos casos
Pablo Guzzi, Chief Data & Analytics Officer en Ualá, explica a LA NACION que los empleados de esta fintech pueden utilizar herramientas de GenAI libremente: “La usamos mucho en el área de programación para el mantenimiento del código, y el departamento de Recursos Humanos hace lo mismo cuando publica avisos de búsquedas laborales para que el sistema describa los detalles de la posición”, ejemplifica. Y cuenta que, como consideran que GenAI es una herramienta que impulsa la productividad, realizaron un concurso en el que cualquier empleado podía presentar un caso de uso y varios jueces seleccionaron los mejores. “Así formamos un semillero de proyectos para ir implementando. Por ejemplo, uno es embeber la tecnología GPT en el chatbot de atención al cliente para que sea una interacción sea más fluida”.
De todos modos, el ejecutivo comenta cuál es el límite. “Lo pueden usar para lo que deseen, siempre y cuando no vuelquen allí información de los clientes ni datos confidenciales del negocio. En tal sentido, no vigilamos ni monitoreamos a la gente, porque se supone que respetan la política de datos de la compañía y los acuerdos preexistentes que hemos establecido”, dice.
Además, Guzzi señala que, dentro del programa de capacitación de la empresa, hay un curso online sobre prompt enginering, que es la destreza de hacer preguntas correctas a un bot de inteligencia artificial generativa para obtener las respuestas más relevantes.
En vistas de los resultados, en Ualá profundizarán el trabajo con GenAI. De hecho, Guzzi anticipa que la empresa firmó un acuerdo con OpenAI para empezar a trabajar antes de fin de año con GPT en un ambiente cerrado, de forma tal que los datos que le entregan no queden expuestos públicamente.
Otro caso es el de Analytics Town, consultora de Analytics, SEO e Inbound Marketing que emplea a 25 personas de la Argentina, España, Estados Unidos y Armenia. “Nosotros utilizamos las herramientas de OpenAI, LLaMa 2 (de Meta) y Cloud 2 (de Anthropic)”, dice Ricardo Díez, fundador y CEO de esta pyme. Según relata, recurren a estas soluciones para desarrollar productos propios como GraphHR, cuyo lanzamiento es inminente y promete un ahorro de tiempo cercano al 90% en tareas vinculadas con la selección y reclutamiento de personal.
“Dentro de la empresa utilizamos el GitHub Copilot, que le da sugerencias a los programadores para que escriban código mucho más rápido; y también usamos GenAI para la gestión de proyectos, entonces el sistema nos advierte cuando se acerca la fecha de una entrega o los pasos a seguir para que una tarea sea más eficiente”, ejemplifica.
Díez es tajante: “No le ponemos ninguna prohibición porque creemos que es mala idea frenar el potencial de estas herramientas. Además, nadie me ha planteado que le da miedo usarla. Incluso en la empresa incentivamos que se utilice con fines experimentales y creativos siempre y cuando no rompamos el compromiso de confidencialidad de los datos”. Por último, el CEO recomienda no temer a esta tecnología: “El miedo es nuestro enemigo, por eso recomiendo a todos a que experimenten todo lo que puedan porque esa es la mejor forma de no ser sustituidos por la GenAI”.
Consejos finales
Julián Herman, es que es partner en la consultora de negocios Boston Consulting Group, señala que hay empresas que, al ver cómo los empleados utilizan GenAI, han decidido prohibir su uso, y otras lo permiten de lleno sin considerar para que tareas se utiliza: “Pero es posible implementar un punto intermedio: la capacitación es clave de la misma forma que lo es usar estos sistemas en un ambiente cerrado”, opina, y recomienda a las empresas que capaciten a los empleados: “La mayoría de las fallas no son de la tecnología en sí, sino del factor humano, porque los usuarios colocan en estas plataformas datos críticos e información confidencial”.
Mauro Avendaño, director de tecnología en NTT DATA Argentina, coincide. “Es esencial comenzar por brindar formación y concientización a los empleados, para que puedan entender sus capacidades, limitaciones, y para que conozcan cuál es el uso adecuado. Esto incluye comprender los límites de la GenAI, priorizando la privacidad de la información para proteger los datos internos, de clientes u otra información sensible”.
Por último, el experto dice que es fundamental tener en cuenta las regulaciones y políticas internas de la empresa, saber cuándo y cómo se puede utilizar la IA en su organización, y cuándo no es apropiado. Se aconseja también tener un acceso controlado, para evitar abusos y garantizar un uso responsable. “Esto es algo que se logra monitoreando regularmente con auditorías y acercando al empleado un canal de comunicación para plantear dudas, consultas o problemas”.
Como palabras finales, los entrevistados dicen: “Es importante realizar una revisión constante de las prácticas y políticas relacionadas con el tema, para adaptarse a las cambiantes necesidades y desafíos que plantea tanto el negocio como esta tecnología”.
Otras noticias de Inteligencia artificial
Más leídas de Tecnología
Similares a los Ray-ban de Meta. Samsung tendrá su línea de anteojos inteligentes en 2025
Clave. Los trucos de WhatsApp más simples y prácticos que son fáciles de aplicar
Auto clásico. Cómo se vería el histórico Dodge GTX modelo 2025, según la IA
Cuidado. Qué significa quitar la foto de perfil en WhatsApp, según un psicólogo