El hecho habría ocurrido porque los trabajadores buscaban acelerar su labor; la inteligencia artificial utiliza los datos que los usuarios le entregan, pero también los podría revelar a otras personas
- 3 minutos de lectura'
Tres empleados de Samsung habrían filtrado, sin querer, información sensible al utilizar ChatGPT. Los trabajadores buscaban reducir sus tareas al aprovechar el chatbot para crear resúmenes o encontrar errores. Sin embargo, no tuvieron en cuenta que la IA de OpenAI también se entrena a partir de los datos que los usuarios le dan. Incluso, este sistema podría utilizar las referencias para responder preguntas en futuras ocasiones.
“Tan pronto como Samsung Electronics permitió el uso de ChatGPT en sus instalaciones comerciales de soluciones de dispositivos (DS/semiconductor), ocurrió un accidente en el que se filtró información corporativa. Los contenidos de los programas relacionados con la ‘medición de instalaciones’ y el ‘rendimiento/defecto’ de semiconductores se ingresaron como datos de aprendizaje para la empresa norteamericana”, señala The Economist Korea.
Estos datos podrían terminar en cualquier conversación de un usuario con el chatbot. “Se confirmó que hubo tres incidentes de ingreso de información corporativa de Samsung Electronics a ChatGPT. En OpenAI, una empresa nueva de EE. UU., los empleados verifican el contenido de las preguntas ingresadas en ChatGPT y las usan como ‘datos de aprendizaje’. Si se ingresan secretos corporativos en la pregunta, los contenidos pueden filtrarse a un número no especificado de personas”, agrega.
Samsung tuvo que tomar medidas rápidas para evitar que suceda otro incidente. “Los contenidos del accidente identificados por Samsung Electronics son ‘2 casos de fuga de información del equipo’ y ‘1 caso de fuga de contenido de la reunión’. Tras reconocer el hecho, la empresa aplicó ‘medidas de emergencia’, como limitar la capacidad de subida a 1024 bytes por pregunta. Los ejecutivos y el personal involucrado en el accidente de fuga de información corporativa serán investigados y, de ser necesario, se tomarán medidas disciplinarias”, afirma el medio.
Según el portal, uno de los trabajadores encontró un error al ejecutar el código fuente del programa de descarga de la base de datos de medición (DB) de la instalación de semiconductores. Por ello, copió todo el código fuente problemático, lo ingresó en ChatGPT y preguntó por una solución.
Otro ingresó el código del programa escrito para identificar el rendimiento y el equipo defectuoso con el chatbot; mientras que el último convirtió el contenido de una reunión grabada en su celular en un archivo de documento a través de la aplicación Naver Clova y luego lo ingresó en ChatGPT.
Tras lo ocurrido, la empresa coreana estaría buscando la manera de crear su propia IA para evitar otro problema similar. “Samsung Electronics está considerando construir su propio servicio de inteligencia artificial (IA) exclusivamente para la empresa bajo la supervisión del Centro de Innovación, una organización dentro de DS, para prevenir fundamentalmente este tipo de accidentes”, concluye.
El Comercio (Perú)Otras noticias de Inteligencia artificial
Con tapa y proyector interior. En Japón presentaron una bañadera robot que funciona como un “lavapersonas”
Uno por uno. Los barrios más seguros de San Francisco, según la inteligencia artificial
Según la inteligencia artificial. Estos son los mejores lugares de California para quienes buscan tranquilidad
Más leídas de Tecnología
Similares a los Ray-ban de Meta. Samsung tendrá su línea de anteojos inteligentes en 2025
Cuidado. Qué significa quitar la foto de perfil en WhatsApp, según un psicólogo
Auto clásico. Cómo se vería el histórico Dodge GTX modelo 2025, según la IA
Google. Así es juego interactivo que Google le dedica a la Luna de noviembre