Decir que YouTube no es extraña a la polémica no deja de ser un truismo de diccionario. Durante los últimos meses la plataforma de vídeo de Google ha concentrado toda suerte de críticas por motivos como la difusión de contenidos de corte pedófilo, un hasta hace poco oscuro sistema de advertencias por infracciones y el aparente desinterés en la publicación de vídeos con comportamientos peligrosos.
Lo cierto es que YouTube no puede controlar de forma instantánea la legalidad de todos los vídeos subidos por sus millones de usuarios, pero aquellos contrarios a las normas de la página son por lo general retirados. Los problemas aparecen en esa línea que separa lo admisible de lo que no es, y durante los últimos años se han acrecentado con la adopción de unas políticas más próximas a pasar la pelota que a tomar soluciones efectivas. Según Bloomberg, esta actitud de mirar hacia otro lado fue cultivada dentro de la propia compañía durante una etapa en la que se priorizó el crecimiento por encima de lo demás.
YouTube se negó a dejar de incluir contenido extremo en las listas de recomendaciones
De acuerdo con múltiples fuentes consultadas por la agencia de noticias, que ha entrevistado a más de 20 empleados de YouTube antiguos y actuales, la dirección de la empresa evitó de forma continua tomar medidas contra canales con contenidos "extremos", que divulgaban teorías conspirativas o que difundían vídeos antivacunas. Los desarrolladores con los que ha podido hablar Bloomberg trataron de reducir la visibilidad de estos vídeos sin llegar a eliminarlos, puesto que no vulneraban las normas, pero sus propuestas fueron rechazadas sistemáticamente.
De forma más concreta, varias personas se percataron de la aparición de vídeos con una gran popularidad promoviendo posturas antivacunas o conspiraciones en las que víctimas de un tiroteo eran calificadas como "actores de crisis". Estos contenidos no estaban siendo descubiertos únicamente a través de búsquedas, sino que eran promovidos de forma activa por YouTube a través de sus algoritmos de recomendación. Los desarrolladores argumentaron que sería posible eliminar ese tipo de contenidos de las columnas de vídeos recomendados, pero siempre recibieron negativas a implementar cualquier medida que pudiera reducir su visibilidad.
Igual de notable resulta el hecho de que YouTube utilizó técnicas disuasorias para evitar la denuncia interna de este tipo de canales. Abogados de la compañía "aconsejaron" a los empleados que no estaban asignados a los equipos de moderación que debían evitar buscar contenidos de tipo cuestionable por cuenta propia. Aunque no llegó a ser una directiva formal, esta práctica tenía un fin muy concreto según un antiguo ejecutivo: reducir la responsabilidad de YouTube en caso de acciones legales al poder argumentar que desconocían la existencia de dichos vídeos.
Menos de 20 empleados en el antiguo equipo de Confianza y Seguridad
Por otro lado, la correcta aplicación de las propias políticas de YouTube era hasta hace poco un simple espejismo. Hacia finales de 2017, el equipo de Confianza y Seguridad de YouTube, responsable de supervisar la correcta aplicación de las normas, tenía una plantilla de menos de 20 personas que debían "luchar con uñas y dientes" para conseguir más recursos. De acuerdo con YouTube, este equipo ha crecido "significativamente" desde entonces.
Como con los consejos del departamento legal a los empleados ajenos al equipo de Confianza y Seguridad, YouTube nunca dejó constancia explícita de que esta ausencia de respuesta al crecimiento de vídeos y canales con contenido extremo se debiera su interés en la popularidad de este tipo de contenidos. En cualquier caso, aseguran los entrevistados, YouTube solo tenía un objetivo, y ese era alcanzar los 1.000 millones de horas de reproducción diarias.
Un empleado anónimo que trabajó directamente para Susan Wojcicki aporta algo más de contexto al afirmar que la máxima responsable de YouTube nunca quiso perder el tiempo con ese tipo de dilemas. "Mi trabajo es dirigir la compañía, no ocuparme de esto". Desde YouTube se asegura que Wojcicki nunca se ha desentendido del asunto, y que desde 2017 la plataforma recomienda vídeos siguiendo un parámetro llamado "responsabilidad", en el que se observa información como las encuestas de satisfacción realizadas al finalizar el visionado de un vídeo.
Lo cierto es que YouTube no puede controlar de forma instantánea la legalidad de todos los vídeos subidos por sus millones de usuarios, pero aquellos contrarios a las normas de la página son por lo general retirados. Los problemas aparecen en esa línea que separa lo admisible de lo que no es, y durante los últimos años se han acrecentado con la adopción de unas políticas más próximas a pasar la pelota que a tomar soluciones efectivas. Según Bloomberg, esta actitud de mirar hacia otro lado fue cultivada dentro de la propia compañía durante una etapa en la que se priorizó el crecimiento por encima de lo demás.
YouTube se negó a dejar de incluir contenido extremo en las listas de recomendaciones
De acuerdo con múltiples fuentes consultadas por la agencia de noticias, que ha entrevistado a más de 20 empleados de YouTube antiguos y actuales, la dirección de la empresa evitó de forma continua tomar medidas contra canales con contenidos "extremos", que divulgaban teorías conspirativas o que difundían vídeos antivacunas. Los desarrolladores con los que ha podido hablar Bloomberg trataron de reducir la visibilidad de estos vídeos sin llegar a eliminarlos, puesto que no vulneraban las normas, pero sus propuestas fueron rechazadas sistemáticamente.
De forma más concreta, varias personas se percataron de la aparición de vídeos con una gran popularidad promoviendo posturas antivacunas o conspiraciones en las que víctimas de un tiroteo eran calificadas como "actores de crisis". Estos contenidos no estaban siendo descubiertos únicamente a través de búsquedas, sino que eran promovidos de forma activa por YouTube a través de sus algoritmos de recomendación. Los desarrolladores argumentaron que sería posible eliminar ese tipo de contenidos de las columnas de vídeos recomendados, pero siempre recibieron negativas a implementar cualquier medida que pudiera reducir su visibilidad.
Igual de notable resulta el hecho de que YouTube utilizó técnicas disuasorias para evitar la denuncia interna de este tipo de canales. Abogados de la compañía "aconsejaron" a los empleados que no estaban asignados a los equipos de moderación que debían evitar buscar contenidos de tipo cuestionable por cuenta propia. Aunque no llegó a ser una directiva formal, esta práctica tenía un fin muy concreto según un antiguo ejecutivo: reducir la responsabilidad de YouTube en caso de acciones legales al poder argumentar que desconocían la existencia de dichos vídeos.
Menos de 20 empleados en el antiguo equipo de Confianza y Seguridad
Por otro lado, la correcta aplicación de las propias políticas de YouTube era hasta hace poco un simple espejismo. Hacia finales de 2017, el equipo de Confianza y Seguridad de YouTube, responsable de supervisar la correcta aplicación de las normas, tenía una plantilla de menos de 20 personas que debían "luchar con uñas y dientes" para conseguir más recursos. De acuerdo con YouTube, este equipo ha crecido "significativamente" desde entonces.
Como con los consejos del departamento legal a los empleados ajenos al equipo de Confianza y Seguridad, YouTube nunca dejó constancia explícita de que esta ausencia de respuesta al crecimiento de vídeos y canales con contenido extremo se debiera su interés en la popularidad de este tipo de contenidos. En cualquier caso, aseguran los entrevistados, YouTube solo tenía un objetivo, y ese era alcanzar los 1.000 millones de horas de reproducción diarias.
Un empleado anónimo que trabajó directamente para Susan Wojcicki aporta algo más de contexto al afirmar que la máxima responsable de YouTube nunca quiso perder el tiempo con ese tipo de dilemas. "Mi trabajo es dirigir la compañía, no ocuparme de esto". Desde YouTube se asegura que Wojcicki nunca se ha desentendido del asunto, y que desde 2017 la plataforma recomienda vídeos siguiendo un parámetro llamado "responsabilidad", en el que se observa información como las encuestas de satisfacción realizadas al finalizar el visionado de un vídeo.
Por lo demas no se hasta que punto debemos responsabilizar a las plataformas de divulgacion de ciertos contenidos, es un tema bastante mas profundo de lo que parece.
Ojo, que no defiendo los nuevos proyectos de ley, pero queda claro que si no se amenaza seriamente a estas compañías, miran para otro lado y solo se centran en sus famosos objetivos, como los 1.000.000.000 de horas diarias y sus correspondientes anuncios, sin importarles si los vídeos promueven actos irresponsables o peligrosos.
Pero te has leído algo ademas del titular?
Porque en ningún sitio habla de denuncias legales sino del sistema de control de las normas de youtube y como los propios empleados intentan hacer algo con vídeos que contienen violencia o cosas como antivacunas que van contra la salud general y los que mandan no les dejaban hacer nada porque traen muchas visitas.
Ni borrarlos ni impedir que se le recomiende a todo el mundo ni nada de nada.
Han sido unos cerdos irresponsables y eso no tiene nada que ver con "protegerse" de nadie que les denuncie [facepalm] [facepalm]
Irresponsables? Youtube no es responsable por lo que dicen o piensan sus usuario, no lo digo yo, lo dice la ley norteamericana. Y al menos que sea pedofilia o llamado de violencia, el resto es completamente legal. Los videos anti vacunas por mas que no nos gusten son legales y no violan ninguna norma.
Y los vídeos con violencia extrema y asesinatos?
YouTube no es responsable por lo que hace la gente pero si de negarse a quitarlos de las listas de recomendados porque le importan más las visitas que el no extender vídeos con víctimas de accidentes o ataques terroristas.