TikTok tiene una cantidad sorprendente de contenido sexual y de fácil acceso para niños
El contenido explícito ha sido durante mucho tiempo una característica de Internet y las redes sociales, y la exposición de los jóvenes a él ha sido una preocupación persistente.
Este tema ha vuelto a tomar protagonismo con el meteórico ascenso de TikTok. A pesar de los esfuerzos por moderar el contenido, parece que el enfoque principal de TikTok sigue siendo maximizar la participación y el tráfico de los usuarios, en lugar de crear un entorno seguro para los usuarios.
Como la aplicación de redes sociales más utilizada por los adolescentes, la presencia de contenido explícito en TikTok puede poner en peligro a los usuarios jóvenes. Y mientras TikTok y los reguladores luchan por ponerse al día con las necesidades de moderación, en última instancia, corresponde a los padres y usuarios sortear estos daños en línea.
El laberinto de moderación de contenidos de TikTok
TikTok se basa en la moderación tanto automatizada como humana para identificar y eliminar contenido que viole sus pautas comunitarias. Esto incluye desnudez, pornografía, contenido sexual explícito, actos sexuales no consensuados, intercambio de imágenes íntimas no consensuadas y solicitación sexual. Las pautas comunitarias de TikTok dicen: «No permitimos actuaciones seductoras ni alusiones a la actividad sexual por parte de jóvenes, ni el uso de narrativas sexualmente explícitas por parte de nadie».
Sin embargo, el sistema de moderación automatizado de Tiktok no siempre es preciso. Esto significa que el material beneficioso, como el contenido LGBTQ+ y el contenido de educación sexual saludable, puede eliminarse incorrectamente, mientras que el contenido explícito y dañino se escapa.
Aunque TikTok tiene un proceso de revisión humana para compensar las deficiencias algorítmicas, este es lento y requiere mucho tiempo, lo que provoca retrasos. Los jóvenes pueden quedar expuestos a contenido explícito y dañino antes de que se elimine.
La moderación de contenido se complica aún más por tácticas de los usuarios como «algospeak», que se utiliza para evitar activar filtros algorítmicos implementados para detectar contenido inapropiado. En este caso, algospeak puede implicar el uso de jerga, códigos, eufemismos o emojis de Internet para reemplazar palabras y frases comúnmente asociadas con contenido explícito.
Muchos usuarios también recurren a algospeak porque sienten que la moderación algorítmica de TikTok es parcial e injusta para las comunidades marginadas. Los usuarios han informado sobre un doble rasero, en el que TikTok ha suprimido el contenido educativo relacionado con la comunidad LGBTQ+, al tiempo que permite que el contenido dañino permanezca visible.
El contenido dañino se escapa de las grietas
Las pautas de TikTok sobre historias sexualmente explícitas y poses sexualizadas son ambiguas. Y su proceso de verificación de edad se basa en la edad autoinformada, que los usuarios pueden omitir fácilmente.
Muchos creadores de TikTok, incluidos los creadores de pornografía, utilizan la plataforma para promocionarse a sí mismos y a su contenido en otras plataformas como PornHub o Onlyfans. Por ejemplo, la creadora @jennyxated publica contenido sugerente e hipersexual. Se llama a sí misma «la niña de papá» y se presenta como más joven de lo que es.
Este tipo de contenido es popular en TikTok. Promueve actitudes poco saludables hacia el sexo y el consentimiento y perpetúa estereotipos de género dañinos, como sugerir que las mujeres deben ser sumisas a los hombres.
Los niños jóvenes que luchan contra problemas de salud mental y soledad son particularmente vulnerables a la retórica «incel» y a las opiniones misóginas amplificadas a través de TikTok. Figuras controvertidas como Andrew Tate y Russell Hartley continúan siendo promovidas por algoritmos, generando tráfico y apoyando los intereses comerciales de TikTok.
Según Business Insider, los vídeos en los que aparece Tate se han visto más de 13 mil millones de veces hasta agosto de 2022. Este contenido sigue circulando a pesar de que Tate ha sido prohibido.
Los autoproclamados defensores de los derechos de los hombres centran su contenido en el discurso antifeminista, la hipermasculinidad y los roles jerárquicos de género. Lo que pueden parecer memes y «entretenimiento» pueden insensibilizar a los jóvenes ante la cultura de la violación, la violencia doméstica y la masculinidad tóxica.
La promoción de contenido idealista y sexualizado por parte de TikTok también es perjudicial para la autopercepción de las mujeres jóvenes y los jóvenes queer. Este contenido retrata estándares corporales poco realistas, lo que lleva a comparaciones, a una mayor insatisfacción corporal y a un mayor riesgo de desarrollar trastornos alimentarios.
Potenciar la educación sexual
Debido a su popularidad, TikTok ofrece una oportunidad única para ayudar a difundir contenido educativo sobre sexo. Los médicos y ginecólogos utilizan hashtags como #obgyn para compartir contenido sobre salud sexual, incluidos temas como el consentimiento, la anticoncepción y los estigmas en torno al sexo.
La Dra. Ali, por ejemplo, educa a las mujeres jóvenes sobre la menstruación y el control de la natalidad, y es una defensora de las mujeres de color. Sriha Srinivasan promueve la educación sexual para estudiantes de secundaria y analiza los mitos sexuales, el consentimiento, las ITS, la menstruación y la justicia reproductiva.
Milly Evans es una creadora de contenidos de educación sexual autista, no binaria y queer que utiliza TikTok para abogar por la educación sexual inclusiva. Cubren temas como abuso doméstico, consentimiento en relaciones queer, identidades sexuales y de género, juguetes sexuales seguros para el cuerpo y derechos trans y no binarios.
Estos son sólo algunos ejemplos de cómo TikTok puede ser un espacio para contenido informativo, inclusivo y sexualmente positivo. Sin embargo, es posible que dicho contenido no reciba la misma participación que los videos más lascivos y que llamen la atención ya que, como la mayoría de las aplicaciones de redes sociales, TikTok está optimizado para la participación.
Una vista de pájaro
Las plataformas de redes sociales enfrentan desafíos importantes para moderar el contenido dañino de manera efectiva. Depender de plataformas para autorregularse no es suficiente, por lo que los organismos reguladores deben intervenir.
El Comisionado de eSafety de Australia ha asumido un papel activo proporcionando pautas y recursos para padres y usuarios, y presionando a plataformas como TikTok para que eliminen contenido dañino. También están liderando el camino a la hora de abordar el material de abuso sexual infantil generado por IA en las redes sociales.
Cuando se trata de TikTok, nuestros esfuerzos deberían centrarse en equipar a los usuarios jóvenes con habilidades de alfabetización mediática que puedan ayudarlos a mantenerse seguros.
Para los niños menores de 13 años, corresponde a los padres decidir si permiten el acceso. Vale la pena señalar que TikTok tiene un límite de edad de 13 años, y Common Sense Media no fomenta su uso por parte de niños menores de 15 años. Si los padres deciden permitir el acceso a un niño menor de 13 años, deben monitorear activamente la actividad del niño.
Si bien restringir el uso de aplicaciones puede parecer una solución rápida, nuestra investigación ha encontrado que las restricciones de las redes sociales pueden dañar las relaciones entre padres e hijos. Es mejor que los padres tomen medidas proactivas, como mantener debates abiertos, generar confianza y educarse a sí mismos y a sus hijos sobre los riesgos en línea.
Proporcionado por La Conversación