YouTube empuja a los usuarios hacia vídeos de extrema derecha y a contenidos más extremistas

Un nuevo estudio presentado esta semana en Barcelona encuentra «fuertes evidencias» de que los usuarios de YouTube «migran constantemente a contenidos más extremistas» por las recomendaciones de la plataforma

Un estudio presentado esta semana en la Conferencia tecnológica FAT, que reúne esta semana en Barcelona a expertos mundiales en la equidad y transparencia de los algoritmos, ha podido probar que «los usuarios migran constantemente de contenido más moderado a más extremo» y que buena parte de los miembros que integran las comunidades de extrema derecha en la plataforma comenzó viendo vídeos sobre temáticas similares, pero de contenido mucho menos radical.

Tras visualizar y analizar un total de 72 millones de comentarios de 330.925 vídeos procedentes de 349 canales diferentes, los investigadores de la Universidad de Lausana, Harvard y Minas Gerais afirman que hay «fuertes evidencias» de que YouTube esté fomentando una espiral de radicalización a través de las recomendaciones.

Para comprobarlo, estudiaron el contenido generado por tres comunidades: intelectual dark web (promotores de lo políticamente incorrecto), alt-lite (corriente de derechas) y alt-rigt (extrema derecha). Se dieron cuenta de que YouTube ante cualquier búsqueda sencilla, promocionaba «fácilmente» este tipo de vídeos. Posteriormente, los investigadores comprobaron que un 26% de los comentaristas presentes en las publicaciones de intelectual dark web y alt-lite, años después, aparecían también como comentaristas de los vídeos de alt right. Es decir, gracias a las recomendaciones, habían pasado a ser parte de la audiencia del contenido situado aún más hacia la derecha.

Tal y como recoge eldiario.es, YouTube rechaza la metodología, las conclusiones y las evidencias aportadas por los investigadores universitarios. Para la plataforma el informe no es válido porque, entre otras cosas, no tiene en cuenta las modificaciones que han realizado en materia de discurso del odio y desinformación:

«Hemos cambiado nuestros algoritmos de búsqueda para garantizar que el contenido más fidedigno apareciese y se etiquetase de forma destacada en los resultados y recomendaciones de las búsquedas, y comenzamos a reducir las recomendaciones de contenido y vídeos de carácter dudoso que podrían desinformar a los usuarios de forma perjudicial».

A pesar de que Google se desmarca por completo de tales conclusiones, este estudio coincide con algunos de los puntos denunciados el año pasado por ex trabajadores de la plataforma de vídeos.



https://spanishrevolution.org/youtube-e ... EEChJZl43A

Personalmente estoy de acuerdo YouTube a pesar de ser una persona de izquierdas, no para de recomendarme la mierda fascista de hombre hetero y el economista gallo mientras que la temática de izquierdas brilla por su ausencia o es eliminada como el famoso canal JOTA POV que desde hace mucho ya no sube videos en esta plataforma.
podría ser ... o no.
Yo lo veo lógico. Al fin y al cabo con Vox se ha polarizado más la opinión de la gente que consume más videos de estos partidos y las sugerencias son videos de extrema derecha.
No lo veo como que "youtube lo recomienda por oscuros motivos" sino que se recomienda más por el auge de la extrema derecha en general y la tendencia de la gente a ver estos vídeos.
Y no será que en el subconsciente del rojerío hay un votante de Vox latente y sin querer pulsa botones que lo redirigen al contenido que realmente desea ver...

Pasa mucho con el porno, se empieza viendo dos rubias en un barco y se acaba con cosas mucho más bizarras...
Bueno eso de empuja, no se yo que decirte; si tu buscas un mitin de Vox, lo logico es que los recomendados sean de Vox, Le Pen o de ese estilo.

Peor vamos vaya mala suerte tengo yo, que cuando veo vídeos de música eurodance/italo disco de los 90, no me enlaza ni a una puta canción de este estilo y me casca recomendaciones de música española de los 80, el pollito pio y demás cosas para niños pequeños, regeaton por un tubo, amen de repetir la misma canción en diferentes versiones (de una llega a escuchar 7 versiones).
youtube te empuja hacia lo que buscas y ves mas

si lo que buscas y ves mas son videos de la cria de la cabra piamontesa, te dirigira a videos de ello.

vale cualquier ejemplo. y tambien tiene en cuenta los canales a donde te suscribes o aquellos de los que ves mas videos.

yo por ejemplo llevo una temporada viendo videos de versionados de canciones en piano o sintesia y ahora tengo el panel de recomendaciones lleno de ello.

logicamente, si lo que te pones a ver son videos de "facherio" pues el panel se te va a llenar de eso.

lo mismo con cualquier otra tematica.

el algoritmo de youtube te da con lo que lo alimentes.
Sería una buena razón para que Google se planteara retirar el canal de Vox. Que no le hace ningún bien a nadie.
@GXY en parte tienes razón y así es como funciona el algoritmo de YouTube actualmente.

Pero como puede ser que sin consumir videos de vox o de temática de extrema derecha me los recomiende o salgan en mi página principal, junto con el contenido de videojuegos y AMV que si consumo?

Te juro que es así, como te juro que no consumo esos vídeos.
jouse norris escribió:@GXY en parte tienes razón y así es como funciona el algoritmo de YouTube actualmente.

Pero como puede ser que sin consumir videos de vox o de temática de extrema derecha me los recomiende o salgan en mi página principal, junto con el contenido de videojuegos y AMV que si consumo?

Te juro que es así, como te juro que no consumo esos vídeos.


Porque leerás noticias relacionadas con vox, política, etc... todo esto son datos que tienen las empresas, sumado a que si los vídeos de vox, la derecha, la política, etc.... son los que más se ven pues es lo que te va a recomendar para que vayas los veas y ganen dinero, a lo mejor a ti hay algo que no te gusta, pero si ellos ven que te pueden hacer ver algo y ganar dinero lo harán
jouse norris escribió:@GXY en parte tienes razón y así es como funciona el algoritmo de YouTube actualmente.

Pero como puede ser que sin consumir videos de vox o de temática de extrema derecha me los recomiende o salgan en mi página principal, junto con el contenido de videojuegos y AMV que si consumo?

Te juro que es así, como te juro que no consumo esos vídeos.


parte de las recomendaciones son los trending nacionales o mundiales. es decir, videos que ve mucha gente.

por eso youtube recomienda tanto mierda musica, videos de propagacion de memes, videos de youtubers famosetes...
El estudio es tendencioso en el momento en que ves que en los grupos de muestra no existe ninguno de extrema izquierda, probablemente porque como todos sabemos no existe /s.
por cierto lo de la gente que deja de subir videos a sus canales de youtube y se pasan a otras plataformas no es por sus ideas politicas, sino porque estiman que en otras plataformas podran monetizar mejor (mas).

por eso unos cuantos se han pasado a twitch, por ejemplo.
Ultimamente se ve mucho muerto de hambre de extrema derecha que se hace un canal para atizar a la izquierda y de paso mendigar dinero pidiendo donaciones y cantidad de retrasados de extrema derecha donando .

Pagan para que les digan lo que quieren oir [carcajad] [carcajad]
Igual que forocoches, tienen su propia cuadra de foreros que abren hilos políticos nivel cuñao para que la gente entre al trapo y se pelee. Ahora ya ni meten a las víctimas propiciatorias habituales cómo los funcionarios, van por los jubilados a los que llaman con desprecio langostas.

Algunos deben creer que va a heredar la cubana que le hace idem al padre porque incluso hablan pestes y de lo mal que están ellos (tengo 5 títulos, ganó 900 al mes trabajo en una carnica, vivo con 5 tipos en un piso cuéntame, no quiero que suba el smi y contesto a vuestras preguntas).
Y a mi que solo me recomienda música...
De hecho recuerdo quejas este año pasado en USA que el algoritmo estaba intentando meter en recomendaciones videos de extrema ozquierda en otros videos de derecha, en plan propaganda.

Igualmente, Yoitube es un medio que apoya abiertamente la extrema izquierda. Han hecho una limpieza ideologica guapa de su plataforma en los ultimos dos años. Al igual que otras como tuiter, patreon, paypal, etc.

El capitalismo al servicio de la extrema izquierda, vivimos tiempos wiizarros.
En los últimos dos años ha aumentado este tipo de contenido en Youtube.

Pero también es verdad que hoy en día se considera extrema derecha hasta UTBH... Así que tampoco me lo tomaría muy en serio.
Pues a mí solo me recomienda videos de música y vídeos de DIY, así que al final creo que cada uno se fija en lo que se fija

Claro que si pensamos que mi banda favorita es Pantera y me los recomienda cada 2x3, igual sí que es verdad que me empuja a contenidos de extremaderecha [qmparto]
A saber qué significa "equidad".
Que dejen de censurar lo que sea. Incluso fachas y negacionistas del holocausto.

Hay muchas ramas de la ciencia que están "contaminadas" ideológicamente. Por ejemplo la psicología.

Nadie ve su biga en el ojo.
¿Entonces esos vídeos de señores haciendo casas subterráneas con un palo son de extrema derecha?
Para algunas personas, un video que no sea "inclusivo" es de extrema derecha.

Asi que todos a bailar con la nueva version de "Colacao" https://www.youtube.com/watch?v=4Wbd79Zw8nk la cual goza de frescura inclusiva de nuevas generaciones, "si no quiere que sus hijes caigan en el fascisme, que tomen un buen colacao por las mañanes". [beer]
Microfil escribió:Hay muchas ramas de la ciencia que están "contaminadas" ideológicamente. Por ejemplo la psicología.


Quiero saber más. Hacia qué ideologías en concreto, con fuentes, detalles, citas, autores, etc.

Un saludo.
A mi nunca me ha recomendado nada relacionado con política y nunca he buscado nada relacionado con política tampoco.
Todos fachas, porque no piensan como yo.
A mi lo que me recomienda son vídeos de comida coreana callejera, que sinceramente tienen muy buena pinta.

AMV de anime, animes, unboxing, y canciones.

Hace poco, sin yo buscarlo me salía en recomendaciones vídeos de rescates de perros abandonados, vi unos cuantos y de la mala hostia que me entraba de que haya gente así, los borré todos, incluso los graciosos.

Y eso que ni busque nada de eso.

Pero de política sin yo buscar, nunca me ha pasado.
Ni un video de politica me recomienda youtube, estara mal la app? :(
A mi me recomienda videos de calistenia, de coleccuones de megadrive, de consolitas chinas y videos recopilatorios de humor.

El que busca política, encuentra política.
Te recomienda en base a lo que veas. En mi caso hardware, impresión3d, diy, retro/emulación y música clásica.

De refugios de animales y demás ya nada porque he ido poniendo que no me interesa en los vídeos para no ponerme de mala ostia con tanto hijo puta suelto.

Todo lo demás es montarse películas.
#509944# está baneado del subforo por "flames"
Bimmy Lee escribió:Todos fachas, porque no piensan como yo.

Ya no se puede llamar facha a la gente porque son exageraciones y faltas de respeto.
Ahora bien, esos comunistas amigos de los terrroristas rompe-españa que asco dan.
XD
Un tío blanco hetero fascistas [+risas] [+risas] .

Madre mía el feminismo y sus tonterías.
Imagen

Para los que no pilléis la referencia, viene de esto:
Imagen
algo me dice que youtube solo recomiendan lo que busca la gente yo estoy harto de ver videos de star wars y es lo que más me recomienda y cuando cambio mis preferencias para ver videos de gatetes pues empieza a mostrarme más videos de gatetes, al que le moleste que le muestre eso youtube pues solo le queda preuntarse ¿que es lo que veo? y si no le gusta borrar cache en youtube para que se le resetee y empiece de nuevo a sugerir cosas digamos de 0 más de una vez lo he hecho cuando veia que me sugería ya demasiadas cosa similares y en ese momento no me apetecía ver de eso
#509944# está baneado del subforo por "flames"
Menuda recopilación XD
Victimismo + ataques. ¿que puede salir mal?
Hasta la ciencia está contaminada [qmparto] [qmparto]
Igualmente, Yoitube es un medio que apoya abiertamente la extrema izquierda. Han hecho una limpieza ideologica guapa de su plataforma en los ultimos dos años. Al igual que otras como tuiter, patreon, paypal, etc

Para algunas personas, un video que no sea "inclusivo" es de extrema derecha.

Hay muchas ramas de la ciencia que están "contaminadas" ideológicamente. Por ejemplo la psicología.

Todos fachas, porque no piensan como yo.
Hombre limpieza ideológica no se yo, pero se intenta

Y creo que hay hasta hilo por misce sobre ello.
Blawan escribió:Menuda recopilación XD
Victimismo + ataques. ¿que puede salir mal?
Hasta la ciencia está contaminada [qmparto] [qmparto]


A ver...

Igualmente, Yoitube es un medio que apoya abiertamente la extrema izquierda. Han hecho una limpieza ideologica guapa de su plataforma en los ultimos dos años. Al igual que otras como tuiter, patreon, paypal, etc


https://www.youtube.com/watch?v=FRf9UxsM-NE

Neutralísimos. La imparcialidad personificada.

Para algunas personas, un video que no sea "inclusivo" es de extrema derecha.


Si no has visto esto es que llevas bajo una piedra los últimos 10 años. De cosas así anda lleno el mundo.

Hay muchas ramas de la ciencia que están "contaminadas" ideológicamente. Por ejemplo la psicología.


Quizá lo digan por cosas como esta:

https://www.letraslibres.com/espana-mex ... wtNZPg-qcA

Todos fachas, porque no piensan como yo.


Primer mensaje del hilo:
jouse_norris escribió: la mierda fascista de hombre hetero
Aquí el estudio veamos que hay de cierto.
https://dl.acm.org/doi/pdf/10.1145/3351095.3372879

Primero hace una diferenciación entre gente que habla de temas polémicos pero sin tener una posición extrema, en lo que llaman IDW (intellectual dark web). Esta es la descripción que da: iconoclastic thinkers, academic renegades and media personalities who are having a rolling conversation about all sorts of subjects, [. . . ] touching on controversial issues such as abortion, biological dierences between men and women, identity politics, religion, immigration, etc. Dentro de ese grupo incluyen a gente como: Sam Harris, Jordan Peterson, Ben Shapiro, Dave Rubin, Joe Rogan, San Harris, C. H. Sommers, Gad Saad, Maajid Nawaz, Douglas Murray, Ayaan Hirsi Ali, Camille Paglia, Carl Benjamin (Sargon of Akkad), James Damore, Tim Pool, Elon Musk, Steven Pinker....

Luego estarían los extremistas, por ejemplo supremacistas o similar, que sería la alt-right. Entre medias en tierra de nadie es lo que llaman la alt-lite. La hipótesis del estudio sería que empezar en un canal IDW, te acabaría llevando a uno alt-right.

La definición de radicalización sería esta: “Functionally, political radicalization is increased preparation for and commitment to intergroup conict. Descriptively, radicalization means change in beliefs, feelings, and behaviors in directions that increasingly justify intergroup violence and demand sacrice in defense of the ingroup.” Esto junto al consumo de contenido alt-right, sería lo que considerarían radicalización. La radicalización por la izquierda no la analizaron, por lo que no podemos saber si también se da en la misma proporción, si es incluso mayor o si es menor.

Ellos mismos indican que el algoritmo de youtube cambia contínuamente y no hay acceso al log de recomendaciones.

La recopilación de datos fue como sigue: primero seleccionaron una serie de canales, básicamente los de las personas que nombraba más arriba. ¿Cual fue el criterio de selección? Una lista que había creado un tío de internet como ejemplos de IDW. Como criterio de inclusión, muy bueno no es. Para seleccionar la alt-right sí fueron más serios utilizando palabras clave (las cuales no las indician, por lo que el estudio no es reproducible). Aunque al final, la determinación como alt-right era bastante difusa, sin criterios de inclusión definidos, básicamente según les parecía tras ver 5 minutos de vídeo. Además, los canales con más seguidores no se incluyeron, por imposibilidad de revisar todos los vídeos.

Encuentran que este tipo de canales, tienen más interacciones por visualización que los canales convencionales (nada que pille por sorpresa, tratando temas polémicos). Pero hay un problema, cuenta igual un comentario a favor, que uno neutral, incluso que uno en contra. De hecho, a partir de 2018, hay una proporción similar de usuarios comentando en canales convencionales que en IDW o alt-right. Es decir, que igual que dicen que este solapamiento entre IDW y alt-right indica una promoción de esta última, también podríamos decir que los vídeos convencionales también hacen esto. Y además no sería fruto del algoritmo, pues los propios autores indican que se debe simplemente a la mayor popularidad de esos canales. Tambien dan otra posible explicación, que la gente nueva que entra a Youtube sea más propensa a ver esos canales, sin radicalización de por medio.

Ahora pasan a medir la exposición a canales alt-right y lo hacen viendo donde escriben, considerando exposición baja si publican mensajes en 1-2 canales alt-right, media 3-5 y alta 6+. Para 2018, un 10% tuvo una exposición baja y un 4% fue la suma de media y alta. Para 2017 sólo te dicen el total ¿? que fue un 12%.

Las diferencias encontradas fueron de un 2-3% para la exposición alta y media y de un 4% para la exposición baja. Es decir, una miseria.

Hasta ahora no tenemos nada para afirmar lo del título del hilo. Ahora sí, pasan a analizar el algoritmo. Pues bien, los canales IDW no recomendaron NUNCA un canal alt-right en el primer paso. Los alt-lite lo hicieron, pero sólo un 3% de las veces. Tras varios pasos, la probabilidad de llegar a un alt-right fue del 4 y 5% respectivamente.

Si en vez de recomendación de canales vemos recomendación de vídeos, es todavía más difícil que te salga un alt-right (0,05%)

En otras palabras, no, no es cierto lo que se está afirmando y de hecho hay algún estudio que encuentra lo contrario, que el algoritmo te evita contenido extremista, cosa entendible conociendo quienes son los dueños de YouTube y su política de empresa. Recuerdo también que en ningún momento se analizaron los canales de contenido de extrema izquierda.
jouse norris escribió:Personalmente estoy de acuerdo YouTube a pesar de ser una persona de izquierdas, no para de recomendarme la mierda fascista de hombre hetero


Ese canal no es fascista, hace críticas que tu no consientes porque a lo mejor eres tu el fascista que no tolera opiniones contrarias a la tuya.
Señor Ventura escribió:
jouse norris escribió:Personalmente estoy de acuerdo YouTube a pesar de ser una persona de izquierdas, no para de recomendarme la mierda fascista de hombre hetero


Ese canal no es fascista, hace críticas que tu no consientes porque a lo mejor eres tu el fascista que no tolera opiniones contrarias a la tuya.

Por no hablar que el estudio catalogaría a UTBH como IDW, no alt-right.

Pero que la realidad no le estropee un buen titular.
A tu cuenta de youtube hay que educarla.

No recomendarme este canal hace maravillas.

Y esto vale para cualquier tipo de contenido.
toda tecnológica está LLENA de toda la ideología de genero actual, sean grandes tecnológicas (google es el caso más extremo) hasta sector de videojuegos.
Creer que youtube(justamente google) empuja a los usuarios a videos de extrema derecha es ser un poco inocente la verdad.
No creo que sea culpa de Youtube sinó de la naturaleza humana. El fascismo lleva coordinándose en internet desde los 90 para usar la red como herramienta para expandir sus discursos de odio a través de campañas de mentiras, sobretodo desde el supremacismo blanco norteaméricano, aunque enseguida aprendieron sus adláteres europeos. Lo tienen muy avanzado y al final a la persona normal le gusta mucho más entrar a "Las 9 cosas de la inmigración que no te cuentan los comunistas" que a un video de un tipo gris hablando de economía o demografía con palabras raras que el público objetivo de éste tipo de videos no conoce. Igual que pasa cuando pones a un catedrático de ingenieria aeroespacial a hablar y al lado un vídeo de JL explicándote sus historias.
Y el contexto también ayuda, el capitalismo nos tiene metidos en una crisis demográfica terrible y más o menos todo el mundo se da cuenta de ello.
Básicamente un lloro porque han empezado a cargarse los canales feministas/LGTB que por ser tal se permitían el lujo de generalizar y lanzar mensajes de odio. Al final ha pasado lo que tenia que pasar, cuando te das cuenta que los SJW se te están cargando la plataforma reportando en masa a canales de otras ideologías.

No es que haya más canales de extrema derecha o se empuje a ver más vídeos de extrema derecha, es que cada vez hay más gente cansada de como el feminismo ha virado a la misandria en muchos canales y ya ni se molestaban en ocultarlo.

UTBH es fascista porque no sigue las consignas del movimiento feminista, como no, a mi me parece que los fascistas son otros.
supermuto escribió:
Microfil escribió:Hay muchas ramas de la ciencia que están "contaminadas" ideológicamente. Por ejemplo la psicología.


Quiero saber más. Hacia qué ideologías en concreto, con fuentes, detalles, citas, autores, etc.

Un saludo.


De toda la vida: Sociología, psicología, etc... de izquierdas, económicas, empresariales, etc... de derechas.
En general las ciencias sociales son un campo de minas ideológico. Es natural porque hace falta mucho por hacer.
De la misma manera que a la biología todavía le faltan muchas matemáticas.
Ya todo se convierte en una paranoia ratataaaa
A veces cotilleo perfiles al 'azahar', entre ellos a los típicos que meten comentarios pro paranoia progre comunista sin venir a cuento (da igual que el video sea de humor, de música o de Perico el de los palotes) y solo tienen una lista de reproducción con videos educativos sobre lo malo que es el comunismo progre...el resto van sobre los héroes de Vox o las virtudes del fascismo.

La información objetiva es fundamental [reojillo] [boma]
ya incluso el algoritmo de youtube es "fascista" [qmparto]
GXY escribió:youtube te empuja hacia lo que buscas y ves mas

si lo que buscas y ves mas son videos de la cria de la cabra piamontesa, te dirigira a videos de ello.

vale cualquier ejemplo. y tambien tiene en cuenta los canales a donde te suscribes o aquellos de los que ves mas videos.

yo por ejemplo llevo una temporada viendo videos de versionados de canciones en piano o sintesia y ahora tengo el panel de recomendaciones lleno de ello.

logicamente, si lo que te pones a ver son videos de "facherio" pues el panel se te va a llenar de eso.

lo mismo con cualquier otra tematica.

el algoritmo de youtube te da con lo que lo alimentes.


Y debo añadir que dudo que en Youtube la inteligencia artificial esté tan avanzada como para tener "intenciones" políticas. Pasa con cualquier temática, yo ahora tengo la lista de recomendados llenas de recetas de platos que salen en anime / manga.

Polémica innecesaria, y como sacar noticias interesadas a partir del sesgo del que la redacta. Estoy seguro de que si se hace el mismo estudio respecto a la extrema izquierda y respecto al extremo "centro" sacarían la misma conclusión.

jouse norris escribió:no para de recomendarme la mierda fascista de hombre hetero


Madredelamorhermoso [facepalm]
Youtube no usa un algoritmo, prácticamente es una IA que aprende de usos.

A mí no me recomienda eso, pero basta ver un video de una temática nueva (por ejemplo cuidados de animales) para q me llene todo de recomendaciones de eso.

Lo que si es cierto es que a veces recomienda cosas ajenas a mis preferencias, solo a, veces, supongo que para sacarnos de la, zona de confort.

En cuanto por qué tantos video de extrema derecha, porque son ideas fáciles que no requieren argumentar, sólo odiar. Es como los "criticos" de juegos que no tienen ni idea, y extrañamente a la gente le gusta eso. Ojo, no hablo de videos de "derecha" con ideas normales, me refiero a los que son casi el estereotipo y comedia facha que nos imaginamos.
Piriguallo escribió:Sería una buena razón para que Google se planteara retirar el canal de Vox. Que no le hace ningún bien a nadie.

Mira que no me gustan ni ellos ni sus ideas, pero tampoco la tuyas, que son lo mismo que las de ellos ,pero tu crees que tienes validez moral para censurar ideas en un "MEDIO" privado.
Si es legal no se ha de retirar nada.
83 respuestas
1, 2