Microsoft ha publicado el
segundo Informe de transparencia en el que aborda cómo protege a la comunidad de jugadores de Xbox y modera el contenido que corre por sus redes. El dossier tiene el doble objetivo de dar a conocer los esfuerzos y medidas tomadas, y mostrar con cifras a los usuarios que hay un sistema de moderación de contenido que funciona a pesar de que en la mayoría de ocasiones se ejecuta en segundo plano y de forma proactiva.
Durante el segundo semestre de 2022, Xbox tomó medidas contra 10,19 millones de cuentas, un 40 % más que en los
seis meses anteriores. Los castigos van desde la suspensión hasta la eliminación del contenido. El 80 % del total de las ejecuciones durante este periodo corrieron a cargo de la moderación proactiva, es decir, que se tomaron medidas antes de que un jugador enviara un informe. Microsoft asegura que Community Sift, una herramienta automatizada que detecta contenido ofensivo “en milisegundos” en texto, video e imágenes, evaluó 20.000 millones de interacciones humanas en Xbox.
La moderación proactiva fue especialmente agresiva a la hora de perseguir cuentas falsas, que suelen ser las creadas por bots o automatizadas. De este tipo de cuentas el sistema tomó medidas contra 7,51 millones, el 74 % del total.
“Durante este último periodo, aumentamos nuestra definición de contenido ofensivo para incluir gestos ofensivos, contenido sexualizado y humor descolorido”, explica Microsoft. “Este tipo de contenido generalmente se considera ofensivo, lo que resta valor a la experiencia de juego de muchos de nuestros jugadores. Este cambio de política, junto con las mejoras en nuestros clasificadores de imágenes, ha dado como resultado un aumento del 450 % en las medidas contra el contenido ofensivo, con un 90,2 % de moderación proactiva. Esta moderación a menudo da como resultado la eliminación del contenido”.
A pesar de que gran parte de la moderación es proactiva, los jugadores también ponen de su parte y durante el primer semestre del 2022 enviaron 24,47 millones de informes. El 45 % era sobre comunicaciones entre usuarios, el 41 % sobre contenido y el 11 % sobre contenido generado por los usuarios. A pesar de que la base de jugadores de Xbox sube, el número de informes que envía baja, lo que posiblemente se deba al trabajo de la moderación proactiva.
Fuente: Xbox Wire