TikTok está trabajando en formas de calificar y restringir por edad su contenido para evitar que los adolescentes vean contenido para adultos en la aplicación de video de formato corto.
La plataforma dijo que realizará una pequeña prueba para ver cómo puede evitar que las cuentas de usuarios jóvenes accedan a contenido de nivel adulto a través de los usuarios o sus padres o tutores.
TikTok dijo que se basa en estándares de calificación de contenido para películas y videojuegos.
La empresa propiedad de ByteDance también agregó que probará una forma para que los creadores de la aplicación especifiquen si desean que su contenido solo sea visto por una audiencia más amplia.

Son las plataformas de redes sociales las que se enfrentan a un escrutinio cada vez mayor por proteger la seguridad y el bienestar de los usuarios jóvenes.
Meta, la empresa matriz de empresas como Facebook, Instagram y WhatsApp, ha sido criticada por legisladores estadounidenses por sus planes de crear versiones para menores.
TikTok y los transtornos
Por su parte, TikTok ha sido criticado por publicaciones que promueven trastornos alimentarios y afirma que prohíbe dicho contenido, por lo que también comenzará a eliminar publicaciones que promuevan contenido más amplio sobre trastornos alimentarios.
Las actualizaciones, que se implementarán en las próximas semanas, incluyen el fortalecimiento de su política de engaños y desafíos peligrosos para ayudar a evitar que dicho contenido continúe propagándose en la plataforma.
Material eliminado
Finalmente, TikTok planea ampliar sus políticas para proteger la integridad de sus usuarios, prohibiendo el acceso no autorizado a la plataforma y el acceso a las cuentas, contenidos o datos de los usuarios con fines delictivos.
Por las razones antes mencionadas, la plataforma ha anunciado que, en el marco de la operación del Fusion Center, abrirá este año centros de investigación y monitoreo de incidentes cibernéticos de última generación y centros de recopilación de información en Washington, Dublín y Singapur. .
Además de la nueva política de seguridad, TikTok también reveló que eliminó más de 91 millones de videos que violaban sus reglas, o alrededor del 1 por ciento de todo el material subido a la plataforma.