Este tema ha vuelto a tomar protagonismo con el meteórico avance de TikTok. A pesar de los esfuerzos por moderar el contenido, parece que el enfoque principal de TikTok sigue siendo maximizar la décimo y el tráfico de los usuarios, en circunscripción de crear un entorno seguro para los usuarios.
Mejore su destreza tecnológica con cursos de habilidades de detención valía
Ofreciendo universidad | Curso | Sitio web |
---|---|---|
IIT Delhi | Software de certificación IITD en ciencia de datos y estudios inconsciente | Cita |
Escuela de Negocios de la India | Encargo de productos ISB | Cita |
Northwestern University | Certificado de posgrado de Kellogg en encargo de productos | Cita |
Como la aplicación de redes sociales más utilizada por los adolescentes, la presencia de contenido visible en TikTok puede poner en peligro a los usuarios jóvenes. Y mientras TikTok y los reguladores luchan por ponerse al día con las evacuación de moderación, en última instancia, corresponde a los padres y usuarios sortear estos daños en serie.
El dédalo de moderación de contenidos de TikTok
TikTok se zócalo en la moderación tanto automatizada como humana para identificar y eliminar contenido que viole sus pautas comunitarias. Esto incluye desnudez, pornografía, contenido sexual visible, actos sexuales no consensuados, intercambio de imágenes íntimas no consensuadas y solicitación sexual. Las pautas de la comunidad de TikTok dicen:
No permitimos actuaciones seductoras ni alusiones a la actividad sexual por parte de jóvenes, ni el uso de narrativas sexualmente explícitas por parte de nadie.
Descubre las historias de tu interés
Sin requisa, el sistema de moderación automatizado de Tiktok no siempre es preciso. Esto significa que el material favorecedor, como el contenido LGBTQ+ y el contenido de educación sexual saludable, puede eliminarse incorrectamente, mientras que el contenido visible y dañino se escapa. Aunque TikTok tiene un proceso de revisión humana para compensar las deficiencias algorítmicas, este es pausado y requiere mucho tiempo, lo que provoca retrasos. Los jóvenes pueden estar expuestos a contenido visible y dañino antiguamente de que se elimine.
La moderación de contenido se complica aún más por tácticas de los usuarios como “algospeak”, que se utiliza para evitar activar filtros algorítmicos implementados para detectar contenido inapropiado.
En este caso, algospeak puede implicar el uso de germanía, códigos, eufemismos o emojis de Internet para reemplazar palabras y frases comúnmente asociadas con contenido visible.
Muchos usuarios asimismo recurren a algospeak porque sienten que la moderación algorítmica de TikTok es parcial e injusta para las comunidades marginadas. Los usuarios han informado sobre un doble rasera, en el que TikTok ha suprimido el contenido educativo relacionado con la comunidad LGBTQ+, al tiempo que permite que el contenido dañino permanezca visible.
El contenido dañino se escapa de las grietas
Las pautas de TikTok sobre historias sexualmente explícitas y poses sexualizadas son ambiguas. Y su proceso de comprobación de etapa se zócalo en la etapa autoinformada, que los usuarios pueden suprimir fácilmente.
Muchos creadores de TikTok, incluidos los creadores de pornografía, utilizan la plataforma para promocionarse a sí mismos y a su contenido en otras plataformas como PornHub o Onlyfans. Por ejemplo, la creadora @jennyxated publica contenido sugerente e hipersexual. Se fuego a sí misma “la pupila de papá” y se presenta como más tierno de lo que es.
Este tipo de contenido es popular en TikTok. Promueve actitudes poco saludables alrededor de el sexo y el consentimiento y perpetúa estereotipos de condición dañinos, como sugerir que las mujeres deben ser sumisas a los hombres.
Los niños jóvenes que luchan contra problemas de salubridad mental y soledad son particularmente vulnerables a la retórica “incel” y a las opiniones misóginas amplificadas a través de TikTok.
Figuras controvertidas como Andrew Tate y Russell Hartley continúan siendo promovidas por algoritmos, generando tráfico y apoyando los intereses comerciales de TikTok.
Según Business Insider, los vídeos en los que aparece Tate se han pasado más de 13 mil millones de veces hasta agosto de 2022. Este contenido sigue circulando a pesar de que Tate ha sido prohibido.
Los autoproclamados defensores de los derechos de los hombres centran su contenido en el discurso antifeminista, la hipermasculinidad y los roles jerárquicos de condición. Lo que pueden parecer memes y “entretenimiento” pueden insensibilizar a los jóvenes delante la civilización de la violación, la violencia doméstica y la masculinidad tóxica.
La promoción de contenidos idealistas y sexualizados por parte de TikTok asimismo es perjudicial para la autopercepción de las mujeres jóvenes y los jóvenes queer. Este contenido retrata estándares corporales poco realistas, lo que lleva a comparaciones, a una viejo insatisfacción corporal y a un viejo peligro de desarrollar trastornos alimentarios.
Potenciar la educación sexual
Adecuado a su popularidad, TikTok ofrece una oportunidad única para ayudar a difundir contenido educativo sobre sexo. Los médicos y ginecólogos utilizan hashtags como #obgyn para compartir contenido sobre salubridad sexual, incluidos temas como el consentimiento, la anticoncepción y los estigmas en torno al sexo.
La Dra. Ali, por ejemplo, educa a las mujeres jóvenes sobre la regla y el control de la demografía, y es una defensora de las mujeres de color. Sriha Srinivasan promueve la educación sexual para estudiantes de secundaria y analiza los mitos sexuales, el consentimiento, las ITS, la regla y la rectitud reproductiva.
Milly Evans es una creadora de contenidos de educación sexual autista, no binaria y queer que utiliza TikTok para negociar por la educación sexual inclusiva. Cubren temas como injusticia doméstico, consentimiento en relaciones queer, identidades sexuales y de condición, juguetes sexuales seguros para el cuerpo y derechos trans y no binarios.
Estos son sólo algunos ejemplos de cómo TikTok puede ser un espacio para contenido informativo, inclusivo y sexualmente positivo. Sin requisa, es posible que dicho contenido no reciba la misma décimo que los videos más lascivos y que llamen la atención ya que, como la mayoría de las aplicaciones de redes sociales, TikTok está optimizado para la décimo.
Una panorámica de pájaro
Las plataformas de redes sociales enfrentan desafíos importantes para moderar el contenido dañino de forma efectiva. Someterse de plataformas para autorregularse no es suficiente, por lo que los organismos reguladores deben intervenir.
El Comisionado de eSafety de Australia ha asumido un papel activo proporcionando pautas y medios para padres y usuarios, y presionando a plataformas como TikTok para que eliminen contenido dañino. Igualmente están liderando el camino a la hora de encarar el material de injusticia sexual inmaduro generado por IA en las redes sociales.
Cuando se tráfico de TikTok, nuestros esfuerzos deberían centrarse en equipar a los usuarios jóvenes con habilidades de alfabetización mediática que puedan ayudarlos a mantenerse seguros.
Para los niños menores de 13 primaveras, corresponde a los padres animarse si permiten el llegada. Vale la pena señalar que TikTok tiene un coto de etapa de 13 primaveras, y Common Sense Media no fomenta su uso por parte de niños menores de 15 primaveras. Si los padres deciden permitir el llegada a un peque pequeño de 13 primaveras, deben monitorear activamente la actividad del peque.
Si acertadamente restringir el uso de aplicaciones puede parecer una opción rápida, nuestra investigación ha antagónico que las restricciones de las redes sociales pueden dañar las relaciones entre padres e hijos. Es mejor que los padres tomen medidas proactivas, como proseguir debates abiertos, producir confianza y educarse a sí mismos y a sus hijos sobre los riesgos en serie.