Openai observa continuos intentos de usar sus modelos para influir en las elecciones
9 oct (Reuters) - OpenAI ha sido testigo de una serie de intentos en los que sus modelos de IA se han utilizado para generar contenido falso, incluidos artículos de larga duración y comentarios en redes sociales, con el objetivo de influir en las elecciones, según informó el miércoles el fabricante de ChatGPT.
Los cibercriminales utilizan cada vez más herramientas de IA, como ChatGPT, para ayudar en sus actividades maliciosas, como la creación y depuración de malware, y la generación de contenido falso para sitios web y plataformas de redes sociales, dijo la startup.
En lo que va del año, ha neutralizado más de 20 intentos de este tipo, incluido un conjunto de cuentas ChatGPT en agosto que se utilizaron para producir artículos sobre temas que incluían las elecciones estadounidenses, según la empresa.
También prohibió en julio una serie de cuentas de Ruanda que se utilizaban para generar comentarios sobre las elecciones en ese país y publicarlos en la red social X.
Ninguna de las actividades que intentaron influir en las elecciones mundiales atrajo una participación viral o audiencias sostenibles, añadió OpenAI.
Cada vez preocupa más el uso de herramientas de IA y redes sociales para generar y difundir contenidos falsos relacionados con las elecciones, sobre todo ahora que Estados Unidos se prepara para los comicios presidenciales.
Según el Departamento de Seguridad Nacional de Estados Unidos, este país percibe una amenaza creciente de que Rusia, Irán y China intenten influir en las elecciones del 5 de noviembre, incluso utilizando la IA para difundir información falsa o divisiva.
OpenAI se consolidó la semana pasada como una de las empresas privadas más valiosas del mundo tras una ronda de financiación de 6.600 millones de dólares.
ChatGPT cuenta con 250 millones de usuarios activos semanales desde su lanzamiento en noviembre de 2022.
(Reporte de Deborah Sophia en Bengaluru; Editado en español por Héctor Espinoza)