La penitencia de Twitter dista mucho de llegar a su fin. Tras ser acusada por su antiguo jefe de seguridad de prácticas negligentes y mentir sobre el número de bots, The Verge ha podido saber por boca de varios trabajadores, antiguos y presentes, que Twitter intentó monetizar el contenido para adultos disponible en la red social y solo piso el freno cuando un equipo interno alertó sobre la cantidad de pornografía infantil disponible.
El plan original de Twitter comenzó a fraguarse en abril de 2021, cuando varios ejecutivos vieron la posibilidad de hacerse con parte del negocio de OnlyFans mediante una iniciativa interna conocida como ACM, de Adult Content Monetization. La idea era que los creadores de contenido para adultos pudieran recibir dinero por parte de los usuarios de Twitter interesados, y lógicamente la empresa se llevaría su parte.
Como parte del proyecto, Twitter formó un equipo rojo con la misión de oponerse a dicho plan y resaltar cualquier posible problema que pudiera surgir. Los resultados fueron descorazonadores. La cantidad de material pedófilo y de abuso de menores en general disponible en Twitter era exagerado, las herramientas de detección de contenido abusivo eran inadecuadas y la compañía no podía permitir la venta de material para adultos porque carecía y carece de los medios para verificar la edad de los usuarios o implementar políticas coherentes.
A la vista de los resultados, Twitter decidió cancelar ACM.
Twitter es consciente del problema, pero no dedica los recursos para combatirlo
El problema, señala The Verge, es que Twitter ya era muy consciente de que esta clase de contenidos fluyen por la red social sin demasiada oposición. "Los ejecutivos están aparentemente bien informados sobre el asunto y la compañía está haciendo poco para remediarlo", señala el artículo en contraposición a las declaraciones oficiales de Twitter, que asegura que mantiene una política de tolerancia cero.
Concretamente, cinco meses antes de formar el equipo rojo, los mismos investigadores alertaron a Twitter de que las herramientas disponibles para identificar contenidos de explotación infantil eran antiguas, ineficientes e incapaces de detectar materiales ilegales a escala, requiriendo mucho trabajo manual y haciendo posible que vídeos denunciados permanecieran online durante casi un día. Pidieron más recursos y mejores herramientas al presentar sus datos, pero sus súplicas cayeron en oídos sordos.
Desarrollar las herramientas necesarias para detectar imágenes y vídeos de abuso de menores en Twitter hubiera requerido desviar recursos desde otras áreas para desarrollar sistemas como Real ID, pensado para que usuarios autorizados pudieran verificar su identidad usando documentación oficial que sería cruzada con bases de datos gubernamentales. Poco a poco estas y otras ideas fueron marchitándose hasta que en agosto el "equipo de salud" de Twitter recibió la orden de integrarse con el dedicado a buscar cuentas de spam para facilitar la compra por Elon Musk, solo para que este retirara su oferta y acusara a Twitter de mentir sobre el número de bots.
El artículo de The Verge se ha publicado casi al mismo tiempo que un estudio independiente en el que se señala que se está produciendo un auge en el contenido de autolesiones, que escapa sin demasiadas dificultades a los filtros de Twitter a pesar de utilizar en ocasiones etiquetas para que sus consumidores puedan encontrarlo más fácilmente.
El plan original de Twitter comenzó a fraguarse en abril de 2021, cuando varios ejecutivos vieron la posibilidad de hacerse con parte del negocio de OnlyFans mediante una iniciativa interna conocida como ACM, de Adult Content Monetization. La idea era que los creadores de contenido para adultos pudieran recibir dinero por parte de los usuarios de Twitter interesados, y lógicamente la empresa se llevaría su parte.
Como parte del proyecto, Twitter formó un equipo rojo con la misión de oponerse a dicho plan y resaltar cualquier posible problema que pudiera surgir. Los resultados fueron descorazonadores. La cantidad de material pedófilo y de abuso de menores en general disponible en Twitter era exagerado, las herramientas de detección de contenido abusivo eran inadecuadas y la compañía no podía permitir la venta de material para adultos porque carecía y carece de los medios para verificar la edad de los usuarios o implementar políticas coherentes.
A la vista de los resultados, Twitter decidió cancelar ACM.
Twitter es consciente del problema, pero no dedica los recursos para combatirlo
El problema, señala The Verge, es que Twitter ya era muy consciente de que esta clase de contenidos fluyen por la red social sin demasiada oposición. "Los ejecutivos están aparentemente bien informados sobre el asunto y la compañía está haciendo poco para remediarlo", señala el artículo en contraposición a las declaraciones oficiales de Twitter, que asegura que mantiene una política de tolerancia cero.
Concretamente, cinco meses antes de formar el equipo rojo, los mismos investigadores alertaron a Twitter de que las herramientas disponibles para identificar contenidos de explotación infantil eran antiguas, ineficientes e incapaces de detectar materiales ilegales a escala, requiriendo mucho trabajo manual y haciendo posible que vídeos denunciados permanecieran online durante casi un día. Pidieron más recursos y mejores herramientas al presentar sus datos, pero sus súplicas cayeron en oídos sordos.
Desarrollar las herramientas necesarias para detectar imágenes y vídeos de abuso de menores en Twitter hubiera requerido desviar recursos desde otras áreas para desarrollar sistemas como Real ID, pensado para que usuarios autorizados pudieran verificar su identidad usando documentación oficial que sería cruzada con bases de datos gubernamentales. Poco a poco estas y otras ideas fueron marchitándose hasta que en agosto el "equipo de salud" de Twitter recibió la orden de integrarse con el dedicado a buscar cuentas de spam para facilitar la compra por Elon Musk, solo para que este retirara su oferta y acusara a Twitter de mentir sobre el número de bots.
El artículo de The Verge se ha publicado casi al mismo tiempo que un estudio independiente en el que se señala que se está produciendo un auge en el contenido de autolesiones, que escapa sin demasiadas dificultades a los filtros de Twitter a pesar de utilizar en ocasiones etiquetas para que sus consumidores puedan encontrarlo más fácilmente.
En twitter puedes encontrar porno directamente.
Si hay porno infantil o se le ordena erradicar dicho contenido o se cierra la plataforma.
No hace falta hacer ningún bailecito sexual para ver contenido erótico, a mi un hombre grande con traje (y corbata) ya me pone, así que un simple baño de un bebé (de esos que tan expuestos están en las redes asociales) para un pederasta pues... ya te puedes imaginar. La noticia habla directamente de porno infantil.
Y lo que me da mucho miedo de la noticia es que no pone que se denunciara ese contenido pedófilo a la policía, parece que con quitarlo al día siguiente es suficiente. Espero que no sea así y haya más recorrido que no detallan.
En mi opinión si ninguno de los dos deberían de existir, menudo cáncer para el internet y la sociedad.
Si Twitter sirve para promocionar cuentas de Onlyfans [facepalm]
Onlyfans no es una web porno, es una web para que los creadores de contenido suban su contenido y la gente les pague, y al principio no había tanto contenido erótico/porno, otra cosa es que la mayoría de gente que hay en onlyfans suba ese contenido, es más hace unos meses onlyfans quiso acabar con ese contenido pero al final se echaron atrás.
Y bueno lo último que dices xD, por esa regla de tres vamos a eliminar internet también ya que estamos
Que pena de capitalismo...
Con la cantidad de webs porno que hay no entiendo porque onlyfans deberia ser ¿ilegal?, supongo que estaria un escalón por debajo, pero vamos, si permiten las demás no lo son no se porque debería de serlo esta.
Aqui que el problema es el porno infantil, no el porno en sí que cuyo problema no veo que sea él como tal sino el que actualmente es casi imposible limitar el acceso a este para que no lo vean los menores, pero bueno, si se quiere tener un internet lo más anónimo y sin consecuencias posibles para que cualquier buen profesor de colegio de primaria pueda desearle la muerte/violación a cualquier politico por ejemplo, pues es lo que hay... no se puede tener todo
Eso de las herramientas para luchar contra la subida de esto y aquello que a veces anuncian las plataformas de redes sociales es para mear y no echar gota, como lo de los contenidos de odio de facebook
Hacen directos dedicados y otras lindeces...