Esto es lo que nunca hay que decirle a ninguno de los chats de inteligencia artificial
Los chatbots de IA tienen acceso a los datos personales de los usuarios y pueden utilizarlos con diversos fines; esta es la información que no hay que compartirles
- 4 minutos de lectura'
En el último tiempo, los chats de inteligencia artificial se volvieron una tendencia en todo el mundo por su capacidad para responder a todo tipo de preguntas al instante. Sin embargo, estos programas pueden tener acceso a una gran cantidad de datos personales de los usuarios, por lo que deben ser utilizados de forma responsable. En este sentido, es importante saber qué es lo que nunca hay que decirle a ninguno de los chatbots de IA.
Los chatbots de Inteligencia Artificial son programas de software que utilizan dicha tecnología para simular conversaciones humanas. Se basan en el procesamiento del lenguaje natural y el aprendizaje automático para comprender las consultas que realizan los usuarios y generar respuestas realistas, ya sea en forma de mensajes de texto o de voz.
Si bien estas herramientas son útiles en diversos campos de aplicación, como en la atención al cliente, cualquier persona puede emplearlas desde su casa, lo que plantea un serio problema con respecto al uso de la información que reciben en las conversaciones. Por esta razón, hay que tener mucho cuidado con los mensajes que se les envían.
Qué no se le debe decir a ninguno de los chats de Inteligencia Artificial
Según Fox News, al no haber ningún tipo de límites ni leyes que regulen lo que pueden hacer los chats de Inteligencia Artificial con la información que recopilan, es recomendable no compartir ciertos datos con ellos. A continuación, 10 cosas que se les debe decir:
- Contraseñas o credenciales de inicio de sesión
- Nombre, dirección o número de teléfono
- Información financiera confidencial
- Datos médicos o de salud
- Pedir consejos ilegales
- Discurso de odio o contenido dañino
- Información confidencial de trabajo o negocio
- Respuestas a las preguntas de seguridad
- Contenido explícito
- Información personal de otras personas
Por otro lado, a la hora de utilizar un chatbot de IA por primera vez, se aconseja crear una cuenta nueva desde cero, en lugar de utilizar opciones de inicio de sesión con Google o Facebook. Además, es posible desactivar las funciones de memoria en la configuración de plataformas como ChatGPT o Perplexity.
Las demandas a los chats de Inteligencia Artificial
Según CBS News, en octubre de este año, un niño de 14 años se suicidó después de tener una relación emocional y sexual virtual durante meses con un chat de Character.AI llamado “Dany”. De acuerdo con Megan García, su hijo era un estudiante sobresaliente y un atleta, pero eso comenzó cambiar a medida que pasaba más tiempo en conversaciones con varios bots. “Pensó que al terminar su vida aquí, podría entrar en una realidad virtual”, explicó.
Por otro lado, Character.AI recibió una segunda demanda presentada por dos familias de Texas que afirman que sus chatbots son “un peligro claro y presente” para los jóvenes, además de que promueven la violencia. Según la demanda, uno de ellos le dijo a un joven de 17 años que asesinar a sus padres era una “respuesta razonable” a los límites de tiempo frente a la pantalla que se le imponían.
En este contexto, Character.AI anunció una serie de nuevas funciones de seguridad en sus chatbots a través de un comunicado de prensa. “Este conjunto de cambios da como resultado una experiencia diferente para los adolescentes de la que está disponible para los adultos, con funciones de seguridad específicas que imponen límites más conservadores a las respuestas del modelo, en particular cuando se trata de contenido romántico”, señaló.
En primer lugar, la compañía afirmó que, en muchos casos, cuando un chatbot ofrece contenido sensible o inapropiado, “lo hace porque un usuario lo solicita para intentar obtener ese tipo de respuesta”. Ante esto, se reducirá la probabilidad de que se produzcan este tipo de comentarios mediante el bloqueo tanto de entradas como de resultados inapropiados.
“Por ejemplo, si detectamos que un usuario ha enviado contenido que infringe nuestros Términos de servicio o Pautas de la comunidad, ese contenido se bloqueará en su conversación con el personaje” escribió Character.AI. Por otro lado, en aquellos casos que se haga referencia al suicidio o la autolesión, “también mostraremos una ventana emergente específica que dirigirá a los usuarios a la Línea Nacional de Prevención del Suicidio”, agregó.
Al mismo tiempo, se incluirán controles parentales y los usuarios recibirán notificaciones después de completar una sesión de una hora en la plataforma. Esta función se podrá personalizar para usuarios adultos, mientras que los menores de 18 años “tendrán más límites en su capacidad para modificarla”. Por último, ya está presente un aviso legal en cada chat para recordarles que no son personas reales y que lo que dicen debe considerarse ficción.
Otras noticias de Inteligencia artificial
- 1
Estas son las reglas del Uscis para acelerar los casos de inmigración en EE.UU.
- 2
Se definen los Playoffs de la NFL: así quedará el camino rumbo al Super Bowl 2025
- 3
Por qué el “comer menos y moverse más” no es la verdadera clave para bajar de peso, según los expertos
- 4
No todos lo saben: estas son las nuevas leyes de tránsito que entrarán en vigor en California en 2025