TikTok está tratando de acelerar su proceso de moderación eliminando revisores humanos donde sus sistemas automatizados también pueden hacer el trabajo.

En los EE. UU. Y Canadá, la compañía comenzará a utilizar sistemas de revisión automatizados para eliminar videos con desnudez, sexo, violencia, contenido gráfico, actividades ilegales y violaciones de su política de seguridad menor. Si el sistema detecta un video en esas categorías, se retirará de inmediato y el creador tendrá la oportunidad de apelar a un moderador humano.

Hasta ahora, TikTok ha ejecutado todos los videos de moderadores humanos en los EE. UU. Antes de sacarlos, dijo un portavoz. El cambio está destinado en parte a limitar el «volumen de videos angustiantes» que los moderadores deben ver y darles más tiempo para dedicarlo a clips más complicados, como información errónea, que requieren contexto para revisarlos correctamente. Los moderadores de otras empresas, como Facebook, han desarrollado síntomas similares a los de PTSD a partir de los videos que debían ver. El anuncio también es parte de un esfuerzo por brindar más transparencia en torno a la moderación, según Axios , que informó por primera vez la noticia.

El problema que enfrentará TikTok es que los sistemas automatizados nunca son perfectos, y algunas comunidades pueden verse más afectadas por los errores en las eliminaciones automatizadas. La aplicación tiene un historial de moderación discriminatoria y recientemente fue criticada por usar el hashtag intersexual dos veces. TikTok dice que está comenzando a usar la automatización solo donde es más confiable; ha estado probando la tecnología en otros países, incluidos Brasil y Pakistán, y dice que solo el 5 por ciento de los videos que eliminaron sus sistemas deberían haberse permitido.

Ese es un número bajo, pero cuando se pone en el contexto de cuántos videos elimina TikTok (8.540.088 videos en los EE. UU. Durante los primeros tres meses de 2021), podría terminar siendo decenas o cientos de miles de videos extraídos por error. La gran mayoría de los videos eliminados pertenecen a las categorías que TikTok está implementando la moderación automatizada. Dicho esto, no todos esos videos se enviarán a revisores humanos. Un portavoz dice que los moderadores humanos seguirán revisando los informes de la comunidad, las apelaciones y otros videos marcados por sus sistemas automatizados.

TikTok dice que implementará el sistema de revisión automatizado «durante las próximas semanas».