Craig Martell alertó sobre el uso que las personas podrían darle a esta herramienta y que llevaría a fomentar la desinformación; en este contexto, alentó a capacitar en la detección de fake news
- 3 minutos de lectura'
Desde la emergencia de la Inteligencia Artificial (IA) y su rápido progreso, los expertos destacaron sus notables beneficios para el trabajo, pero también alertaron sobre sus riesgos y posibles consecuencias. De hecho, ante la incertidumbre de cómo pueda impactar esta herramienta en la humanidad, personalidades destacadas firmaron una petición para frenar el avance de esta tecnología durante seis meses. Ahora, el jefe de IA del Pentágono, Craig Martell, expresó que se encuentra “asustado” por el uso que las personas puedan darle.
En noviembre de 2022, emergió la herramienta que revolucionaría el avance de la Inteligencia Artificial: el ChatGPT. Así, esta tecnología permitió que cualquier persona con acceso a Internet pueda generar cualquier tipo de texto. Aunque también presenta contras ante las que se debe prestar especial atención: en función del registro que obtenga sobre un determinado tema, alguna información puede resultar errónea o puede malinterpretar las consignas, por ejemplo.
Por ello, Martell, quien es director de Inteligencia Digital y Artificial del Departamento de Defensa de Estados Unidos, alertó sobre el uso que las personas le podrían dar a esta tecnología. “No nos vendan solo la generación, trabajen también en la detección”, señaló, con respecto a poder identificar la realidad dentro de sus resultados. El experto hizo referencia a, por ejemplo, la simulación de avatares o la clonación de voz, o la calidad similar a la fotográfica en las imágenes generadas por IA.
“Esta información desencadena una respuesta psicológica que lleva a pensar que esto tiene autoridad”, apuntó, según consignó el medio Breaking Defense, durante la conferencia cibernética TechNet, organizada por la Asociación de Electrónica y Comunicaciones de las Fuerzas Armadas. Y aseguró que se encuentra “muerto de miedo” por el uso que puedan darle los usuarios a los recursos de la IA.
“Una herramienta perfecta para la desinformación”
En tanto, los planteos del Pentágono para el departamento de Defensa son el desarrollo de una infraestructura y las políticas que permitan al Ejército estadounidense hacer realidad el proyecto JADC2, según explicó Martell, una plataforma que hará conectar los sistemas de todas las ramas de esta institución y compartir los datos que recopila su tecnología.
“Fue preparado para expresarse con fluidez y habla con fluidez y autoridad, así que lo creen incluso cuando su información está mal”, apuntó el experto. Y agregó: “Esto significa que es una herramienta perfecta para la desinformación. Y, realmente, necesitamos herramientas para poder detectar cuándo sucede esto y poder advertir en ese momento... Pero no las tenemos. Estamos atrasados en esa lucha”.
Además, destacó: “Si le preguntás a ChatGPT: ‘¿Puedo confiar en vos?’, su respuesta data de un largo ‘no’. No bromeo. Dice que es una herramienta que va a darte una respuesta, pero que te corresponde a vos ir a verificarlo por vos mismo”. Y concluyó: “Entonces, mi temor sobre usar esta tecnología, a diferencia de los temores de que nuestros adversarios lo usen, es que confiemos demasiado en ella, sin que los proveedores del servicio construyan las garantías adecuadas y la capacidad para que nosotros lo validemos”.
LA NACION