Ir al contenido

Una mirada al algoritmo de TikTok

tiktok

Desde su lanzamiento por primera vez en 2016, TikTok ha acumulado más de mil millones de usuarios mensuales. 

La clave de su éxito radica en su flujo interminable y adictivo de videos que parecen dirigidos directamente a usted. 

Durante bastante tiempo, la gente se ha estado preguntando qué datos recopila la aplicación de micro-video compartido propiedad de ByteDance sobre sus usuarios para aprender cómo alimentar esa máquina de contenido. 

Ahora, trataremos de acercando a resolverlo.

El domingo, un reportero de The New York Times obtuvo un documento interno del equipo de ingeniería de TikTok en Beijing que explicaba cómo los me gusta, los comentarios, el tiempo de visualización y las acciones compartidas se incorporan a un algoritmo de recomendación, que luego califica qué tan atractivo es un video para un determinado. usuario. 

Además, una captura de pantalla que vio el Times implicaba que un equipo de moderadores de contenido podría ver los videos que envías a tus amigos o subes de forma privada, lo que sugiere un nivel aún más profundo de personalización.

Este desglose simplificado del algoritmo ofreció “un vistazo revelador tanto del núcleo matemático de la aplicación como de la comprensión de la naturaleza humana por parte de la empresa, nuestras tendencias hacia el aburrimiento, nuestra sensibilidad a las señales culturales, que ayudan a explicar por qué es tan difícil de dejar”. escribió el Times . 

Pero también destacó cómo el algoritmo puede conducirlo a un pozo de contenido tóxico que “podría inducir a autolesionarse”.

Los nuevos detalles se basan en una investigación realizada por The Wall Street Journal a principios de este año que utilizó 100 cuentas de “bot” automatizadas para trazar la migración de la experiencia de TikTok de un individuo desde una amplia variedad de videos populares y convencionales a contenido más dirigido y específico de intereses. 

Por ejemplo, un bot que el WSJ programó para tener un interés general en la política finalmente recibió videos sobre conspiraciones electorales y QAnon. 

Un portavoz de TikTok rechazó el informe de WSJ y dijo que su experimento “no es representativo del comportamiento real del usuario porque los humanos tienen un conjunto diverso de intereses”.

Según el documento que vio el Times , la ecuación para calificar videos en función de la actividad del usuario generalmente representa una combinación de me gusta, comentarios, reproducción y tiempo dedicado a un clip. 

En algún lugar, hay una fórmula que también calcula qué tan interesantes son los creadores individuales para los espectadores. “El sistema de recomendación otorga puntajes a todos los videos en función de esta ecuación y devuelve a los usuarios los videos con los puntajes más altos”, informó el Times . 

El problema del inventario

El objetivo final es presentar una lista de contenido que maximice el tiempo que los usuarios pasan en la aplicación y los haga volver. 

Pero los ingenieros de TikTok son conscientes de que si solo transmiten un tipo de video a un usuario, esa persona se aburrirá y dejará la aplicación. 

Para resolver esto, propusieron dos apéndices al algoritmo que mostraría más videos de un creador que cree que le gusta y pondría un límite diario a los videos que tienen las mismas etiquetas. 

Además, consideraron la posibilidad de diversificar las recomendaciones en la pestaña “Para usted”, intercalando el contenido que le podría gustar con otros que normalmente no verá. 

“La idea básica es que quieren tener ojos en la página. Quiere que la gente utilice su producto ”, dice Joshua Tucker, codirector del Centro de Política y Medios Sociales de la NYU. 

“Creo que la genialidad de TikTok es la interfaz donde puedes dirigirte a tus seguidores, o puedes decir, TikTok, muéstrame lo que crees que me gustaría ver”, dice Tucker. 

Al hacer eso, TikTok ha resuelto lo que Tucker llama “el problema del inventario” que plagaba plataformas como Facebook e inicialmente, también Twitter. 

El aprendizaje automático ahora permite que las aplicaciones procesen grandes cantidades de datos y hagan inferencias sobre las preferencias personales en lugar de presentar a cada usuario las mismas opciones básicas de contenido. 

Fuera de sus preferencias, las plataformas quieren saber cómo es probable que cambien sus interacciones según su red. 

Por ejemplo, ¿mirarás contenido porque tus amigos lo están viendo?

Facebook es limitado porque, aparte de los anuncios, solo mostrará publicaciones de amigos y páginas que sigues. 

Y durante mucho tiempo, Twitter solo le mostró los tweets de los usuarios que seguía. “Si nota lo más nuevo en Twitter, estos ‘Temas’, eso está resolviendo el problema del inventario”, dice Tucker. “Le brinda una forma de obtener más inventario, lo que significa que pueden probar más cosas para ver lo que le gustaría. TikTok hizo eso desde el principio con “For You” “.

Los moderadores de contenido humano de TikTok se ocupan del contenido controvertido que los algoritmos informáticos tienen dificultades para clasificar. 

Pueden eliminar contenido, limitar quién ve un video y evitar que se recomienden videos o que se incluyan en el feed, según un documento filtrado obtenido por Netzpolitik . 

A medida que TikTok automatiza cada vez más sus sistemas de revisión, los creadores pueden apelar a los moderadores de contenido humano si creen que sus videos fueron eliminados por error. 

¿Qué tan bien te conoce TikTok?

Tal vez la razón por la que TikTok puede descubrir tus gustos tan rápidamente es porque tienen mucha más información sobre lo que te puede gustar, sugiere Tucker. 

En junio pasado, TikTok proporcionó una rara vista interna de su algoritmo de recomendación en funcionamiento. 

En una publicación de blog , la compañía escribió que los datos relacionados con las interacciones del usuario (dar me gusta, comentar o seguir una cuenta), la información del video (subtítulos, sonidos y hashtags) y la configuración de la cuenta (preferencia de idioma, ubicación) son todos ponderados por el sistema para calcular los intereses de un usuario.

Si bien TikTok afirma que usa me gusta, comentarios y acciones como métricas para medir su participación con contenido específico, el WSJ descubrió que el elemento más importante que analizó la aplicación fue el tiempo de reproducción de un video, ya sea que haya hecho clic, pausado o rewatched. 

El algoritmo ve a qué estás reaccionando y puede identificar rápidamente “el contenido al que eres vulnerable, que te hará hacer clic, que te hará mirar, pero no significa que realmente te guste y que es el contenido que más disfruta ”, dijo el científico de datos Guillaume Chaslot a WSJ al revisar su experimento. 

A medida que la transmisión de un usuario se vuelve más específica, es más probable que encuentren contenido dañino menos examinado por los moderadores, según el WSJ.

Esto se convierte en una preocupación ya que la base de usuarios de TikTok tiende a ser más joven que otras plataformas de redes sociales como Facebook o Youtube. 

Escrutinio continuo 

Los algoritmos de recomendación de los sitios web han estado bajo un mayor escrutinio desde que la denunciante de Facebook Frances Haugen testificó en el Congreso que esos sitios web que priorizan el compromiso sobre la seguridad pueden aumentar la información errónea peligrosa. 

Los legisladores han respondido discutiendo posibles cambios regulatorios para responsabilizar a las plataformas que emplean estos algoritmos de los daños que podrían provenir del contenido recomendado. 

Al investigar los algoritmos de recomendación de YouTube, Tucker se ha interesado en la pregunta de si realmente es el algoritmo el que lo dirige hacia un contenido específico o si se trata de las elecciones individuales de las personas. 

“De cualquier manera, si hay contenido en estas plataformas que está contribuyendo a glorificar el suicidio a los niños, ese contenido no debería estar allí, independientemente de cómo se llegue a él”, dice Tucker. 

TikTok dice que ha estado atento a la eliminación de contenido que encuentra en violación de sus reglas (incluido el contenido de autolesiones). 

En el pasado ha dicho que usa una combinación de computadoras y humanos para examinar su contenido. 

Pero ocurren errores y, a veces, los videos se marcan incorrectamente o se escapan de los filtros. 

En septiembre, TikTok dijo en un comunicado de prensa que estaba publicando nuevas “guías de bienestar” para ayudar a los usuarios que comparten sus experiencias personales a través de la plataforma y sugieren consejos de participación responsable. 

También anunció que ampliaría las intervenciones de búsqueda para poder proporcionar mejor los recursos de apoyo en caso de crisis cuando los usuarios buscaran contenido inquietante. 

“Es un verdadero desafío para estas empresas porque son muy grandes”, dice Tucker. 

TikTok creció demasiado rápido. Y esto sucedió con Facebook: creció demasiado rápido, por lo que no se dio cuenta de los daños que estaban ocurriendo en diferentes idiomas, por ejemplo.

Compartir:

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *