Investigadores demostraron cómo los ciberdelincuentes pueden usar una herramienta de IA generativa para una estafa telefónica automática, capaz de hablar por teléfono con la víctima, acceder al home banking y más
- 3 minutos de lectura'
Los agentes de inteligencia artificial (IA) generativa con capacidades de voz pueden utilizarse para realizar llamadas fraudulentas de manera autónoma, y aunque su tasa de éxito es por el momento moderada, se espera que los avances en esta tecnología los conviertan en una herramienta dañina en manos de los cibercriminales.
Las estafas de base telefónica son habituales en el panorama del cibercrimen, y requieren que un estafador contacte con la potencial víctima mediante una llamada para convencerle de que le dé datos sensibles, como credenciales de acceso a servicios digitales o el número de cuenta bancaria, con el objetivo de robar su dinero.
Automatizar la estafa
Este proceso requiere que el estafador realice múltiples acciones, como navegar por la página web de un banco, obtener e introducir las credenciales del usuario, obtener e introducir el factor adicional de seguridad en un sistema de autenticación múltiple y realizar la transferencia, e incluso reaccionar ante problemas que surjan, como entender mal el dato que dice la víctima.
En este contexto, investigadores de la Universidad de Illinois en Urbana-Champaign (Estados Unidos) han comprobado que se puede habilitar un agente de IA para que realice estas tareas en una estafa telefónica, como recogen en el texto de su investigación, publicado en Arxiv.org. “Las llamadas de estafa autónomas son posibles con los nuevos avances en IA”, afirman.
Aunque saben que el uso de la IA en las estafas no es nuevo, ya que la técnica conocida como de manipulación profunda (deepfake) ya se emplea ampliamente, sobre todo en redes sociales, se han centrado en las capacidades de voz de los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) que impulsan estos agentes, en tanto que “las estafas de voz autónoma y receptiva no están ampliamente desplegadas debido a las limitaciones tecnológicas”.
Una demo (en inglés) con dos instancias de GPT-4o hablando entre ellas
En concreto, los investigadores han empleado ChatGPT con el modelo GPT-4o, de OpenAI, y han registrado una tasa de éxito moderada, que varía entre el 20 y el 60 por ciento, mientras que la tasa de éxito en todas las estafas es del 36 por ciento, según la investigación, que remarca el esfuerzo que tiene que realizar el agente en este proceso: 26 acciones para completar la transferencia bancaria, y hasta tres minutos en las estafas más complejas.
“Como hemos demostrado, los agentes de LLM habilitados para voz pueden realizar las acciones necesarias para realizar estafas telefónicas comunes. Estos agentes son muy capaces, pueden reaccionar a los cambios en el entorno y volver a intentarlo en función de la información defectuosa de la víctima.
Con su trabajo esperan que OpenAI y otras empresas refuercen la seguridad de sus LLM. Y para evitar que sus agentes caigan en malas manos, han optado por no hacer público el código de sus agentes.
Europa Press