El gigante tecnológico desalentó una práctica que se hizo cotidiana entre ingenieros de la misma compañía y profundizó sobre los peligros que trae aparejada
- 3 minutos de lectura'
Alphabet Inc., la empresa que engloba a Google, advirtió a sus propios empleados sobre cómo usar Bard, el chatbot de la compañía, en el marco de las preocupaciones que despierta el uso creciente de las herramientas de inteligencia artificial. Al mismo tiempo que comercializa sus productos de IA, el gigante tecnológico extendió las indicaciones sobre el uso de todas las herramientas, incluso de sus rivales, según publicó la agencia Reuters.
La matriz de Google solicitó con urgencia a sus trabajadores no ingresar ningún tipo de material confidencial en chats de IA. Así lo revelaron cuatro personas familiarizadas con el asunto, información que más tarde sería confirmada por la compañía. La medida la justificó como parte su política sobre la protección de datos.
Los chatbots, entre ellos Bard y ChatGPT, son programas con apariencia humana que utilizan la llamada inteligencia artificial generativa para mantener conversaciones con los usuarios y responder a innumerables indicaciones. Lo que muchos no saben es que existen revisores humanos que leen aquellos intercambios. Un grupo de los investigadores descubrió además que una IA puede reproducir sin problemas datos que absorbió durante el entrenamiento, creando un riesgo de fuga.
En esa línea, Alphabet también les dijo a sus ingenieros que eviten el uso directo del código de computadora que pueda ser generado por los mismos chatbots.
Las advertencias muestran como Google desea evitar daños comerciales por el software que lanzó en competencia con OpenIA, el creador de ChatGPT. En su carrera contra los patrocinadores del chatbot rival, la compañía se juega miles de millones de dólares de inversión y publicidad e ingresos en la nube.
Las precauciones suministradas también reflejan algo que se está convirtiendo en un estándar de seguridad para las corporaciones, es decir, advertir al personal sobre el uso de programas de chat públicos. Un número creciente de empresas en todo el mundo comenzó a establecer medidas de protección contra los chatbots.
Esto se debe a que alrededor del 43 % de los profesionales de distintas empresas usaban ChatGPT u otras herramientas de inteligencia artificial a menudo sin decirle a sus jefes, según una encuesta realizada a 12.000 personas -incluidas las principales empresas con sede en EE. UU.- realizada por Fishbowl.
Información sensible e inteligencia artificial
La inteligencia artificial puede redactar correos electrónicos, documentos e incluso el propio software, lo que promete acelerar enormemente las tareas. Sin embargo, este contenido puede incluir información errónea, datos confidenciales o incluso pasajes protegidos por derechos de autor de una novela de “Harry Potter”.
Algunas compañías desarrollaron software para hacer frente a estas preocupaciones. Por ejemplo, Cloudflare , que defiende los sitios web contra los ataques cibernéticos y ofrece otros servicios en la nube, está comercializando una capacidad para que las empresas etiquete y restrinja el flujo externo de algunos datos.
Google y Microsoft también ofrece herramientas a clientes comerciales -por un alto precio- que les asegura que no habrá datos propio en modelos públicos de la IA. La configuración predeterminada en Bard y ChatGPT es guardar el historial de conversaciones de los usuarios. Sin embargo, se trata de una opción que los usuarios pueden eliminar.
“Tiene sentido” que las empresas no quieran que su personal use chatbots públicos para trabajar, dijo Yusuf Mehdi, director de marketing de Microsoft. “Las empresas están adoptando un punto de vista debidamente conservador. En eso, nuestras políticas son más estrictas”, sostuvo Mehdi.
Con información de Reuters