Qué medidas tomar para proteger los datos de la inteligencia artificial
Este tipo de tecnología utiliza la información vertida en las conversaciones para perfeccionarse, por lo que es importante ser consciente de todo lo que se le dice
3 minutos de lectura'

La proliferación de chatbots motorizados con inteligencia artificial y la tendencia de muchas personas a utilizarlos cada vez más con fines personales o laborales hace que surja la pregunta de qué medidas tomar para proteger los datos vertidos en estas conversaciones.
Aunque ChatGPT tomó la delantera en el desarrollo de esta tecnología, hay distintas alternativas que son útiles para un sinfín de acciones posibles, entre las que está planificar un viaje, elaborar un presupuesto, redactar comunicaciones y muchos más. En esta variedad de tareas posibles, hay infinidad de datos de mayor o menor importancia que las personas deben ser conscientes antes de compartir.

Esto es relevante con cualquier herramienta conectada a Internet, pero cobra mayor importancia en el caso de los modelos de lenguaje que en buena medida son “entrenados” con las mismas conversaciones de los usuarios.
De esta forma, todo lo que se dice en una conversación con un modelo de este tipo es almacenado en servidores, al menos de manera temporal, y utilizado por la compañía propietaria del modelo para perfeccionar su entendimiento de lo que escriben sus usuarios.
Como los chats entre máquina y persona se almacenan en los servidores de la compañía, además de ser usados a discreción por los desarrolladores, también quedan expuestos a hackeos que buscan recabar estos datos con fines presumiblemente maliciosos.
Así, en el caso de las conversaciones con IA, hay un popular refrán que mantiene toda su vigencia: “Uno es esclavo de lo que dice y dueño de lo que calla”.
Aunque queda claro que no existe un verdadero control de la información vertida en este tipo de páginas, hay una serie de medidas que los usuarios pueden tomar para proteger sus datos en las conversaciones con la inteligencia artificial.

Cómo proteger los datos en conversaciones con la IA
La manera más segura de manejarse en este tipo de casos es no compartir ningún dato que no pueda considerarse público. Esto incluye, pero no se limita a: pines y contraseñas, información financiera o clasificada -sobre todo laboral-, el historial médico o producciones creativas originales.
De todas maneras, distintos modelos de lenguaje ofrecen opciones que en teoría salvaguardan la información de ser utilizada para el entrenamiento de la IA. Para conocer el alcance de este uso, es necesario leer la política de privacidad de la compañía.

En el caso de ChatGPT, por ejemplo, esto puede hacerse desde el apartado del Perfil personal. El primer paso es ir hacia el ítem Configuración, dentro del mismo la opción Personalización y allí a la parte de Memoria, donde puede desactivarse esta función del modelo de lenguaje.
Otras noticias de Inteligencia artificial
- 1
Qué es el botón “unirse” de WhatsApp y por qué generó confusión en redes
- 2
El truco para conectar ChatGPT con Canva y crear presentaciones increíbles
- 3
OpenAI presenta los nuevos modelos o3 y o4-mini, los primeros con capacidad para “pensar con imágenes”
- 4
Cómo activar el “modo Semana Santa” en WhatsApp
Últimas Noticias
Ahora para comentar debés tener Acceso Digital.
Iniciar sesión o suscribite