Aquí el estudio veamos que hay de cierto.
https://dl.acm.org/doi/pdf/10.1145/3351095.3372879Primero hace una diferenciación entre gente que habla de temas polémicos pero sin tener una posición extrema, en lo que llaman IDW (intellectual dark web). Esta es la descripción que da: iconoclastic thinkers, academic renegades and media personalities who are having a rolling conversation about all sorts of subjects, [. . . ] touching on controversial issues such as abortion, biological dierences between men and women, identity politics, religion, immigration, etc. Dentro de ese grupo incluyen a gente como: Sam Harris, Jordan Peterson, Ben Shapiro, Dave Rubin, Joe Rogan, San Harris, C. H. Sommers, Gad Saad, Maajid Nawaz, Douglas Murray, Ayaan Hirsi Ali, Camille Paglia, Carl Benjamin (Sargon of Akkad), James Damore, Tim Pool, Elon Musk, Steven Pinker....
Luego estarían los extremistas, por ejemplo supremacistas o similar, que sería la alt-right. Entre medias en tierra de nadie es lo que llaman la alt-lite. La hipótesis del estudio sería que empezar en un canal IDW, te acabaría llevando a uno alt-right.
La definición de radicalización sería esta: “Functionally, political radicalization is increased preparation for and commitment to intergroup conict. Descriptively, radicalization means change in beliefs, feelings, and behaviors in directions that increasingly justify intergroup violence and demand sacrice in defense of the ingroup.” Esto junto al consumo de contenido alt-right, sería lo que considerarían radicalización. La radicalización por la izquierda no la analizaron, por lo que no podemos saber si también se da en la misma proporción, si es incluso mayor o si es menor.
Ellos mismos indican que el algoritmo de youtube cambia contínuamente y no hay acceso al log de recomendaciones.
La recopilación de datos fue como sigue: primero seleccionaron una serie de canales, básicamente los de las personas que nombraba más arriba. ¿Cual fue el criterio de selección? Una lista que había creado un tío de internet como ejemplos de IDW. Como criterio de inclusión, muy bueno no es. Para seleccionar la alt-right sí fueron más serios utilizando palabras clave (las cuales no las indician, por lo que el estudio no es reproducible). Aunque al final, la determinación como alt-right era bastante difusa, sin criterios de inclusión definidos, básicamente según les parecía tras ver 5 minutos de vídeo. Además, los canales con más seguidores no se incluyeron, por imposibilidad de revisar todos los vídeos.
Encuentran que este tipo de canales, tienen más interacciones por visualización que los canales convencionales (nada que pille por sorpresa, tratando temas polémicos). Pero hay un problema, cuenta igual un comentario a favor, que uno neutral, incluso que uno en contra. De hecho, a partir de 2018, hay una proporción similar de usuarios comentando en canales convencionales que en IDW o alt-right. Es decir, que igual que dicen que este solapamiento entre IDW y alt-right indica una promoción de esta última, también podríamos decir que los vídeos convencionales también hacen esto. Y además no sería fruto del algoritmo, pues los propios autores indican que se debe simplemente a la mayor popularidad de esos canales. Tambien dan otra posible explicación, que la gente nueva que entra a Youtube sea más propensa a ver esos canales, sin radicalización de por medio.
Ahora pasan a medir la exposición a canales alt-right y lo hacen viendo donde escriben, considerando exposición baja si publican mensajes en 1-2 canales alt-right, media 3-5 y alta 6+. Para 2018, un 10% tuvo una exposición baja y un 4% fue la suma de media y alta. Para 2017 sólo te dicen el total ¿? que fue un 12%.
Las diferencias encontradas fueron de un 2-3% para la exposición alta y media y de un 4% para la exposición baja. Es decir, una miseria.
Hasta ahora no tenemos nada para afirmar lo del título del hilo. Ahora sí, pasan a analizar el algoritmo. Pues bien, los canales IDW no recomendaron NUNCA un canal alt-right en el primer paso. Los alt-lite lo hicieron, pero sólo un 3% de las veces. Tras varios pasos, la probabilidad de llegar a un alt-right fue del 4 y 5% respectivamente.
Si en vez de recomendación de canales vemos recomendación de vídeos, es todavía más difícil que te salga un alt-right (0,05%)
En otras palabras, no, no es cierto lo que se está afirmando y de hecho hay algún estudio que encuentra lo contrario, que el algoritmo te evita contenido extremista, cosa entendible conociendo quienes son los dueños de YouTube y su política de empresa. Recuerdo también que en ningún momento se analizaron los canales de contenido de extrema izquierda.