TikTok tóxico y adictivo: cómo afecta a la salud mental de los jóvenes de entre 13 y 25 años, según un estudio de Amnistía Internacional
Presentaron en Argentina los resultados locales del estudio global “Domar el algoritmo”, de Amnistía Internacional, que analiza el impacto que tiene el uso de Tiktok y redes similares en la salud mental de los jóvenes, sobre todo a partir de autodiagnóstico en base a videos virales
- 6 minutos de lectura'
Salud mental y privacidad fueron los dos ejes de la presentación local del estudio Domar al algoritmo, que analiza cómo navegar constantemente por TikTok puede traer serias consecuencias para los más jóvenes, y que es la pata argentina de un estudio hecho en varios países por Amnistía Internacional.
Los números de TikTok son impactantes: más de 1000 millones de usuarios en el mundo, de los cuales 16,2 millones son argentinos mayores de 18 años, según el estudio. Eso sin contar la franja de 13 a 17 años, a quienes supuestamente no les está permitido usar la plataforma, por lo que TikTok no informa la cantidad de usuarios.
El estudio local fue encabezado por una investigación etnográfica en la ciudad de Buenos Aires, San Martín (Gran Buenos Aires), Córdoba, Rosario y Salta, a cargo de Martín Becerra, doctor en Ciencias de la información, y Victoria Irisarri, doctora en Antropología Social. Se focalizaron dos grupos etarios (13-17 años y 18-25 años) y se alinean a otras investigaciones de Amnistía Internacional que ahondan en el tema como Empujados a la oscuridad: “El feed “Para ti” de TikTok fomenta la autolesión y la ideación suicida y Siento que no se me protege”: Emboscada en la red de vigilancia de TikTok (QR) a otros análisis actuales.
Una de las conclusiones más importantes se relaciona con uso del tiempo (y lo atrapante de la plataforma), que va desde la sensación de pérdida de tiempo hasta la de abducción del usuario. El tiempo diario de permanencia de los usuarios “dentro” del feed supera el resto de las redes sociales y suma, de manera mensual, 20 horas, en promedio. La explicación es que su algoritmo predice, casi mágicamente -porque no es enteramente transparente su funcionamiento- los gustos, preferencias y hasta pensamientos de los usuarios: de allí la sensación de que el algoritmo “nos escucha”.
Esto genera, según los interlocutores del estudio, una “sensación de adicción”, un espacio que comienza siendo placentero, porque nos muestra lo que queremos ver -como una suerte de compañero permanente- hasta llegar a ser el buscador por defecto de cualquier tema para los menores de 25 años. Cualquiera puede buscar cualquier cosa, y también, enseñar, explicar o difundir una temática. Contenidos que abarcan desde dietas, cuidados de la piel, aprendizaje de técnicas con una amplitud temática infinita hasta difusión de experiencias y consejos sobre trastornos y enfermedades mentales sin ningún tipo de curaduría profesional o científica.
El peligro traspasa el consumo de videos de manera anónima y llega al terreno de los comentarios, que incluyen desde frases violentas y oleadas de odio hasta la difusión de contenido ilegal.
¿Quién protege a los usuarios más jóvenes?
En Argentina no existen normas específicas sobre el accionar de las plataformas digitales: “Si bien cualquier plataforma debe respetar la ley 25326 de datos personales, las previsiones constitucionales en materia de libertad de expresión, acceso a la cultura, derecho a la competencia y protección de usuarios y consumidores, existe jurisprudencia y un creciente debate público y legislativo acerca de las prácticas del sector y las consecuentes necesidades de actualización regulatoria”, indica el estudio.
Un punto fundamental del estudio es la profusión de autodiagnósticos sobre salud mental, que ignoran la distancia entre el saber profesional y científico respecto de síntomas percibidos como problemas de salud física y mental, y el acceso directo a través de TikTok a consejos, experiencias y recetas vinculadas con el aspecto físico y con el bienestar emocional. Esto puede influir en la imagen que se tiene de la propia persona, la salud mental y el bienestar de los usuarios, que corren el peligro de caer “en espirales de contenidos desencadenantes de depresión y autolesiones”.
En la investigación hay diferentes testimonios de usuarios que dan fe de ello. Por ejemplo, el de Estéfano (16 años, Rosario) que entiende que el algoritmo de TikTok “reivindica” sentimientos depresivos o “traumas” en vez de ayudar a superarlos, al proveer más contenido del tipo que se ha buscado. De allí se hace referencia al lado “tóxico o malo” de la plataforma y la necesidad de “domesticar” al algoritmo para que deje de mostrar determinado tipo de contenido a favor de otro menos dañino. El entrenamiento es a voluntad del usuario, tanto dejando de ver ese tipo de videos como indicando la opción “no me interesa”. Pero no se trata solo de una cuestión de voluntad o de fe, sino de responsabilidad, tanto de la empresa como del estado.
“En efecto, todas las empresas tienen la responsabilidad de respetar todos los derechos humanos en cualquier lugar del mundo donde operen y a lo largo de sus operaciones. Para cumplir con sus responsabilidades según lo establecido en los Principios Rectores de las Naciones Unidas sobre Empresas y Derechos Humanos, TikTok debería llevar a cabo una debida diligencia adecuada en materia de derechos humanos para identificar, prevenir, mitigar y rendir cuentas de cómo está abordando los posibles y reales daños que pueda causar” afirma el estudio.
En diálogo con LA NACION, Martín Becerra (uno de los autores del estudio) dice que, efectivamente, deben regularse los tratamientos y el Estado debe facilitar acceso a diagnósticos para evitar la profusión de la autoevaluación. Además de obligar a un cuidado específico (como prohibir elaboración de perfiles) para menores de 13 años, por un lado, y para quienes tienen entre 13 y 18, por el otro.
Una búsqueda rápida en TikTok indica que #Sibo (el acrónimo para referirse al sobrecrecimiento bacteriano del intestino delgado) tiene 672 millones de visualizaciones y es uno de los contenidos virales más crecientes de los últimos años. También lo son #Ayunointermitente, con 2000 millones de views, o #Bajardepeso, con casi 4000 millones. TikTok tiene herramientas de alerta y prevención, pero solo funcionan con términos genéricos como “Dieta”. Ahí sí el sistema nos entrega la leyenda “Hemos actualizado las Normas de la comunidad para ayudar a mantener un ambiente seguro, inclusivo y acogedor para todo el mundo en TikTok”.
Muchos de los testimonios dan cuenta de la incorporación a la vida cotidiana de prácticas o consejos recomendados en TikTok, especialmente aquellos referidos a dietas y belleza. Uno de los problemas más mencionados fue el trastorno de la identidad disociativa (TID). Estos van acompañados de desafíos viales, peligrosos para la salud física y mental, entre otros fenómenos a los cuales hay que prestarles atención.
Guía para familias
Además del informe, y para proporcionar herramientas, Amnistía Argentina presentó una Mini Guía para familias, con datos útiles para armar estrategias de un mejor uso de la plataforma. Desde la organización señalaron que los próximos pasos serán, por un lado, generar materiales y guías focalizados en docentes y que, por el otro, habrá una presentación federal del informe para difundir los resultados del mismo.
Temas
Otras noticias de TikTok
Más leídas de Tecnología
Clave. Los trucos de WhatsApp más simples y prácticos que son fáciles de aplicar
Infancias. Cómo activar el "modo Peter Pan" en WhatsApp
Similares a los Ray-ban de Meta. Samsung tendrá su línea de anteojos inteligentes en 2025
Cuidado. Qué significa quitar la foto de perfil en WhatsApp, según un psicólogo