Apple escaneará imágenes almacenadas en iPhones y iCloud en busca de pornografía infantil

1, 2, 3
(mensaje borrado)
Cuadri escribió:El fin no siempre justifica los medios.


De hecho, muy rara vez el fin justifica los medios. Siempre con el mismo cuento, por el bien común, por hacer algo supuestamente bueno, hacemos cosas todavía peores.

El camino del infierno está lleno de buenas intenciones.

Por cierto, las precuelas de Star Wars están cada día más de actualidad, ver cómo se convierten democracias en dictaduras poco a poco.
Veremos donde están los límites
hombre,como excusa no es mala pero todos sabemos de que va el asunto en realidad... [fiu]
[Jesús de la Paz] está baneado hasta el 12/1/2025 10:37 por "Troll"
Es más efectivo condenar a estos degenerados con la amputación del miembro. Más de uno se lo pensaría. Es una gran idea pero nos queda la duda del uso real y la invasión de la privacidad. Nos quieren controlar a tope.
Estoy seguro de que los pedófilos saben cómo comprimir archivos rar con contraseña...

Esto como mucho solo hará que no utilicen un iPhone para reproducir dicho contenido.
Me vais a matar, pero si lo que hacen es comparar identificadores de archivo con fotos añejas de una base de datos... Qué importa que el usuario lo tenga en su teléfono? El problema no es el pecadillo perverso de excitarse con esa mierda, sino la producción de ese material. Acaso damos por hecho que cualquier elemento con esas inclinaciones, que se excite con esas mierdas, es un pedofilo perpetrador de tales actos?. Me hace gracia pensar que el pedofilo con material fresco, producido por él, no sería detectado y el pobre diablo que tiene esas inclinaciones perversas, pero que jamás pasaría al acto, sería crucificado por este sistema. Una inquisición en toda regla.
Crápula escribió:Me vais a matar, pero si lo que hacen es comparar identificadores de archivo con fotos añejas de una base de datos... Qué importa que el usuario lo tenga en su teléfono? El problema no es el pecadillo perverso de excitarse con esa mierda, sino la producción de ese material. Acaso damos por hecho que cualquier elemento con esas inclinaciones, que se excite con esas mierdas, es un pedofilo perpetrador de tales actos?. Me hace gracia pensar que el pedofilo con material fresco, producido por él, no sería detectado y el pobre diablo que tiene esas inclinaciones perversas, pero que jamás pasaría al acto, sería crucificado por este sistema. Una inquisición en toda regla.


Vamos a ver... ¡VAMOS A VER! ¿Cómo que pecadillo? Tener pornografía infantil, y sobre todo consumirla, no es ningún pecadillo, es un acto deleznable e ilegal. ¿Pobre diablo? ¿Pero qué cojones estoy leyendo? [facepalm]

En cuanto a la noticia, se supone que busca los hash de las fotos, que son como firmas. En un principio, es más intrusiva la aplicación que te hace montajes automáticos con tus fotos. No digo que os tenga que gustar que os espíen, pero deberíais preocuparos antes por aplicaciones que parecen más inocuas.

(Siento haber levantado la voz, pero esto no me parece ni medio normal con un tema tan serio)
pantrolryuk escribió:Le haces una foto a tu hija con un pato de goma en la bañera y te meten 30 años en el talego

Gracias Apple [beer]


pues ya sabes. no hagas una foto a tu hija en paños menores
zerocoolspain escribió:Veo que la gente aquí es top. Aplica el manual del hater de Apple al dedillo con el mandamiento número 1 "No te leerás las noticias y criticarás como si no hubiera un mañana"

¿Alguno ha leído el funcionamiento? Os lo resumo: NO se van a ver las fotos, ni desnudos ni con ropa.

Hay una base de datos (que existe hace años) con los hash de fotografías de pornografía infantil que se van recopilando cada día. Apple lo que hará es comparar esos hash con los de tus fotos SIN VER NINGUNA IMAGEN para ver si coinciden, de coincidir es que tienes una foto de pornografía infantil.

Dejad las pajas mentales de que van a ver vuestras mini porras y los 50gb de porno que guardáis en iCloud.



Buena explicacion 😂😂😂

A mi me da igual la verdad que lo hagan,con estas historias imagino que podrian llegar a piyar a gente turbia metida en estos asuntos,el proposito no creo que sea solo quitarle unas fotos a unos individuos,sera llegar mas lejos en caso de ser posible,mafias,prostitucion infantil,gente sacando dinero con las fotos etc etc por lo tanto quejarse de que te escaneen el movil es ir un poco corto de miras,tiene que haber mucho mas involucrado en esto.
Pues si sirve para pillar a esos hijos de puta, me parece perfecto
sonic5202 está baneado del subforo hasta el 14/1/2025 10:36 por "flames"
el problema es que lo usen para su propio beneficio y no solo para buscar pedófilos. hay que confiar en que van a usarlo solo para eso y listo no?
Infinitas posibilidades, quien controle la lista de hashes puede buscar virtualmente cualquier documento en los dispositivos de millones de personas. Estados nada sospechosos de crujir a los periodistas no afines al régimen se frotan las manos con ésto...
Ostia tio yo pensaba que la escusa de la pedofilia ya estaba muy manida... nose terrorismo.... o "rastreo en busca de contactos positivos" que es un poco mas actual....mas... "newage"

Sobre los que se alarman de la privacidad....cuando os entrara en la cabeza que la privacidad desaparecio allá por el 2005 (cuando estaba en auge lo del "terrorismo" por las torres gemelas...)
Me parece bien, no tengo nada que esconder y tampoco es que me importe mucho que vean lo que tengo.

Así que adelante a terminar con la escoria pedófila y la pornografía infantil.
Y este es nuestro futuro digital, empezamos con un buen fin y terminamos a merced de las grandes empresas.
Si solo se quedara en esto bueno... pero quien nos dice que el siguiente paso no sera usar este tipo de algoritmos para buscar material con copyright obtenido ilegalmente? o para buscar si hemos pagado correctamente impuestos en todas nuestras transacciones, como por ejemplo Wallapop?

Esto es abrir la caja de pandora.
pantrolryuk escribió:Le haces una foto a tu hija con un pato de goma en la bañera y te meten 30 años en el talego

Gracias Apple [beer]

No funciona así
SATAN-CHUS escribió:Pues si sirve para pillar a esos hijos de puta, me parece perfecto


+1000
Si vale para detectar a algunos de estos enfermos mentales de mierda, por mi cojonudo.
Hace casi una década que Eric Schmidt reconoció que google revisa los correos de gmail y aún hay quién cree que Apple es diferente o que esta noticia descubre algo nuevo sobre privacidad.
Lo de siempre, entrometerse aún más en la privacidad del usuario con la excusa de que es para una buena causa.
Menos mal que mi madre no tiene iphone... por que tiene mas fotos mias de pequeño con la cola al aire que...

Si fuera por esa razon seria genial, pero todos sabemos que esto va ser como cuando le pedias un bocao al compañero del colegio del bocadillo y te ponia los dedos limitando la mordida pero siempre te llevabas bastante mas... en fin, vendemos nuestra privacidad gratis...

No creo que consigan pillar a nadie, pues esta gentuza se las sabe todas... lo que tendria que hacer es cada vez que pillen a uno cortarsela y dejarlo en una celda, con suerte se muere en una semana de una buena infeccion, pero mientras sigan yendo de vacaciones a hoteles 5 estrellas con todo incluido pues...
Me parece estupendo, si ayuda a acabar con esa basura inmunda de pedófilos y pederastas, pero una pregunta. No soy padre ni voy a serlo, pero porque queréis tener fotos de vuestros hijos desnudos en el móvil? A ver puedo entender que estáis en la playa o en la piscina o un camping, y hagáis fotos, pero en la bañera? Es solo curiosidad.
Los pedófilos lo tienen fácil.

Con este aviso dejan de comprar productos de Apple y listo.
Este es un tema controvertido. por una parte, no lo veo tan alarmante. pues si es una manera de poder pillar a pedófilos y encerrarlos, bienvenida sea. pero por otra parte, que esto pueda causar problemas en según que fotos se tenga. podemos pensar que ya no se pueden tener fotos de nuestros hijos pequeños jugando en la bañera. De hecho yo tengo videos cambiando el pañal a mi niña cuando era bebé. o cuando se bañaba. son fotos comunes que los padres suelen hacer cuando tienen un bebé. y si esto lo pueden interpretar como pedofilia, entonces esta medida podría no estar bien enfocada. todo funciona según el pretexto que le quiera dar uno a ciertas fotos.
hay gente que ha sido bloqueada en face sólo por una mala interpretación de la foto, cuando realmente no se ha enseñado nada que pueda herir la sensibilidad de algunos.
enseñas un pezón, o algo que se le parezca, y te bloquean.
esta noticia hay que cogerla con pinzas, porque lo que podría ser una buena medida, podría convertirse en una prohibición a la libertad.

pero tambien tenemos que tener en cuenta, que no se puede castigar esta medida justificando que violan los derechos a la privacidad, si al mismo tiempo nos estamos exponiendo cada día en redes sociales. porque las redes sociales, controlan lo que se comparte. en aplicaciones tipo google fotos, se crean albumes aleatorios segun lugares, paisajes, animales... asi que esto no es algo nuevo, por lo que sorprenderse.

pitutete escribió:Me parece estupendo, si ayuda a acabar con esa basura inmunda de pedófilos y pederastas, pero una pregunta. No soy padre ni voy a serlo, pero porque queréis tener fotos de vuestros hijos desnudos en el móvil? A ver puedo entender que estáis en la playa o en la piscina o un camping, y hagáis fotos, pero en la bañera? Es solo curiosidad.


solo si fueras padre, lo entenderías. estoy seguro que tus padres tienen alguna foto tuya desnudo. estoy seguro que se han duchado contigo, y jugado juntos en la bañera, llena de juguetes, desnudos. el cuerpo es natural. no hay de que alarmarse. el problema es cuando alguien sexualiza este contexto. pero el problema no está en la desnudez del niño, sinó en la cabeza del que lo sexualiza.
Recordatorio de que el contenido de esta base de datos es secreto, ni siquiera Apple sabe lo que va a estar escaneando.
alsaan escribió:Recordatorio de que el contenido de esta base de datos es secreto, ni siquiera Apple sabe lo que va a estar escaneando.

elige la que más te guste:
-"es secreto": jajaja
-"ni apple sabe lo que va a estar escaneando": miedo me da entonces lo que puedan buscar en realidad para otros fines
Ya he leído a usuarios de Apple defender a ultranza el método, teniendo confianza ciega de que estos no van a fallar y que su sistema es perfectísimo y a otros sin embargo mandarlos a la mierda y deciden comprarse un NAS para almacenar sus fotos cancelando su cuenta de iCloud.

A la espera que harán las autoridades europeas por esa violación de la intimidad pudiendo acceder directamente a tu iPhone para escanear tus fotos. (EDIT: de momento solo en USA, veremos si se extiende).

Por cierto, recordemos que Google Fotos ya te hace un escaneo para entrenar a su IA.
Cuadri escribió:El fin no siempre justifica los medios.


Venía a decir esto mismo, con esto ya tienen acceso a toda nuestra fototeca?
Por cierto, nos vamos a reir cuando China u otros estados quieran meter también su propia base de datos.
Esto en la práctica es como si llega una patrulla a tu casa y sin mediar palabra entran en tú casa y la registran a fondo para ver si en tu casa hay algún objeto prohibido de los que ellos tienen en su lista de objetos prohibidos.
Eso sí, van a ir cuando tú no estés en casa y lo van a dejar todo ordenadito de nuevo.

Yo Apple ni con tú dinero, pero esto no va a ser una iniciativa aislada. Si no luchamos por nuestros derechos, los perderemos, así de simple.
Cuadri escribió:El fin no siempre justifica los medios.


Que fin? Ya analizan tu fotos apple, samsung, google,etc SIEMPRE LO ESTAN HACIENDO y tu le das permiso en el momento que creas la cuenta.
Todas la fotos son analizadas y con eso suele hacer cosas como los recuerdos, videos-recuerdos hasta gif lo montan. Simplemente añade un algoritmo par poder pillar a pedofilos. Y no pedofilos. Pues la posesión de pornografia infantil también es delito.

Y aunque el fin no justificas siempre los medios. En este caso si. Por que a veces SI el fin justifica los medios. Pillar terroristas, pedo filos, violadores y asesinos mas que justificado cualquier medio.
En mi movil no van a encontrar nada de lo que le pueda saltar. Y si le salta pues nada Se habla y punto. Que una cosa no, pero la leyen occidentales hablar hablan mucho asi no que problema.

HAL9003 escribió:Esto en la práctica es como si llega una patrulla a tu casa y sin mediar palabra entran en tú casa y la registran a fondo para ver si en tu casa hay algún objeto prohibido de los que ellos tienen en su lista de objetos prohibidos.
Eso sí, van a ir cuando tú no estés en casa y lo van a dejar todo ordenadito de nuevo.

Yo Apple ni con tú dinero, pero esto no va a ser una iniciativa aislada. Si no luchamos por nuestros derechos, los perderemos, así de simple.


Que entre dos por favor. Pero que derechos!! llevan 11 años haciendo eso y ahora os alarmáis?? no entiendo vuestra tontuna que os pasa.

alsaan escribió:Por cierto, nos vamos a reir cuando China u otros estados quieran meter también su propia base de datos.


China tiene mas datos nuestro que EEUU y eso ya es decir. Creo que vivis en mundo paralelos o que?
mogurito escribió:Menos mal que presumen de seguridad en sus teléfonos pero ellos son los primeros en espiar.


Típica táctica de la mafia: "Esta es mi ciudad, y en mi ciudad soy yo quien controla el contrabando".
Si te da por grabarte mientras F…. Perfecto Apple [tomaaa]
OnixSa escribió:
Cuadri escribió:El fin no siempre justifica los medios.


Que fin? Ya analizan tu fotos apple, samsung, google,etc SIEMPRE LO ESTAN HACIENDO y tu le das permiso en el momento que creas la cuenta.
Todas la fotos son analizadas y con eso suele hacer cosas como los recuerdos, videos-recuerdos hasta gif lo montan. Simplemente añade un algoritmo par poder pillar a pedofilos. Y no pedofilos. Pues la posesión de pornografia infantil también es delito.

Es normal que si subes las fotos a un servicio externo sin encriptar te las puedan acabar escaneando, ahí no creo que nadie tenga ningún problema.

Pero creo que esta es la primera vez que tu propio dispositivo rastrea tus archivos locales y envía chivatazos a las autoridades.

OnixSa escribió:China tiene mas datos nuestro que EEUU y eso ya es decir. Creo que vivis en mundo paralelos o que?

Ya les gustaría... [facepalm]
Que cinicos, excusarse en un problema tan grave y serio simplemente para robar los datos de los usuarios.
adidi escribió:Que cinicos, excusarse en un problema tan grave y serio simplemente para robar los datos de los usuarios.


yo leyendo el titula pensaba la gente será capaz de entender lo que pone en el texto de la noticia, esta claro que tu no y algunos tampoco leyendo los mensajes del hilo

“nuevas aplicaciones de criptografía"

comprensión lectora macho
anonimo115 escribió:
Einy escribió:
anonimo115 escribió:Os explico como he entendido que funciona esto:

Se baja el iPhone un fichero con identificadores de imágenes pedofilas (hash de cada imagen) y a la vez, internamente sin necesidad de internet,se genera un fichero con el hash de cada imagen del iphone.

Si alguna imagen del iPhone coincide con una pedofila salga una alarma.

No veo que se comprometa la privacidad de nadie (o casi nadie)

Si es así yo tampoco vería ningún problema pero me resulta difícil de creer por 2 motivos:

Primero mucha gente tiene cientos o miles de de fotos a alta resolución en el móvil, hacer el hash de tantos archivos relativamente pesados es una tarea larga e intensiva, si se va haciendo poco a poco en segundo plano una de dos o se hace tan despacio que básicamente no acaba nunca o se come la batería del móvil que da gusto.

Segundo: No creo que el hash sea una forma efectiva de encontrarlas, es decir, son imágenes, se comprimen, se escalan, se eliminan o modifican metadatos, puede haber 20 versiones de una imagen que son archivos distintos con hash distintos y ser exactamente la misma imagen.
No se, no lo veo viable.

Un saludo.

Por lo visto el algoritmo detecta variaciones (la guarda en blanco y negro, guardan parte de la imagen, etc).
No tiene por qué coincidir todo el hash para que salte la alarma.

Entiendo que no todo el mundo tiene porque saberlo, pero el hash no funciona así XD En una imagen, mas si es un formato con compresión como jpg por ejemplo el hash o coincide o no, no hay un "no coincide del todo" y mucho menos con algo como la imagen pasada a blanco y negro. Es decir que para hacer lo que tu dices no estaríamos hablando de hash sino probablemente de comparar las imágenes mediante una IA para lo que las imágenes y no su hash tendría que ser transferido. Y ahí está el importante problema de privacidad.

Un saludo.
Einy escribió:
anonimo115 escribió:
Einy escribió:Si es así yo tampoco vería ningún problema pero me resulta difícil de creer por 2 motivos:

Primero mucha gente tiene cientos o miles de de fotos a alta resolución en el móvil, hacer el hash de tantos archivos relativamente pesados es una tarea larga e intensiva, si se va haciendo poco a poco en segundo plano una de dos o se hace tan despacio que básicamente no acaba nunca o se come la batería del móvil que da gusto.

Segundo: No creo que el hash sea una forma efectiva de encontrarlas, es decir, son imágenes, se comprimen, se escalan, se eliminan o modifican metadatos, puede haber 20 versiones de una imagen que son archivos distintos con hash distintos y ser exactamente la misma imagen.
No se, no lo veo viable.

Un saludo.

Por lo visto el algoritmo detecta variaciones (la guarda en blanco y negro, guardan parte de la imagen, etc).
No tiene por qué coincidir todo el hash para que salte la alarma.

Entiendo que no todo el mundo tiene porque saberlo, pero el hash no funciona así XD En una imagen, mas si es un formato con compresión como jpg por ejemplo el hash o coincide o no, no hay un "no coincide del todo" y mucho menos con algo como la imagen pasada a blanco y negro. Es decir que para hacer lo que tu dices no estaríamos hablando de hash sino probablemente de comparar las imágenes mediante una IA para lo que las imágenes y no su hash tendría que ser transferido. Y ahí está el importante problema de privacidad.

Un saludo.


vuelve a leer web texto de la noticia macho “nuevas aplicaciones de criptografía"
Einy escribió:
anonimo115 escribió:
Einy escribió:Si es así yo tampoco vería ningún problema pero me resulta difícil de creer por 2 motivos:

Primero mucha gente tiene cientos o miles de de fotos a alta resolución en el móvil, hacer el hash de tantos archivos relativamente pesados es una tarea larga e intensiva, si se va haciendo poco a poco en segundo plano una de dos o se hace tan despacio que básicamente no acaba nunca o se come la batería del móvil que da gusto.

Segundo: No creo que el hash sea una forma efectiva de encontrarlas, es decir, son imágenes, se comprimen, se escalan, se eliminan o modifican metadatos, puede haber 20 versiones de una imagen que son archivos distintos con hash distintos y ser exactamente la misma imagen.
No se, no lo veo viable.

Un saludo.

Por lo visto el algoritmo detecta variaciones (la guarda en blanco y negro, guardan parte de la imagen, etc).
No tiene por qué coincidir todo el hash para que salte la alarma.

Entiendo que no todo el mundo tiene porque saberlo, pero el hash no funciona así XD En una imagen, mas si es un formato con compresión como jpg por ejemplo el hash o coincide o no, no hay un "no coincide del todo" y mucho menos con algo como la imagen pasada a blanco y negro. Es decir que para hacer lo que tu dices no estaríamos hablando de hash sino probablemente de comparar las imágenes mediante una IA para lo que las imágenes y no su hash tendría que ser transferido. Y ahí está el importante problema de privacidad.

Un saludo.


entiendo que hará una comparación a nivel local de los hashes:
Imagen
generará unos resultados que serán enviados a apple, y esta los analizará.
la cuestión es que apple no coja resultados intermedios de la aplicación de esa función hash, lo que sería un atentado enorme a la privacidad
pantrolryuk escribió:Le haces una foto a tu hija con un pato de goma en la bañera y te meten 30 años en el talego

Gracias Apple [beer]

No lo había pensado 😃😃😃 pero tienes mucha razón
anonimo115 escribió:
Einy escribió:
anonimo115 escribió:Por lo visto el algoritmo detecta variaciones (la guarda en blanco y negro, guardan parte de la imagen, etc).
No tiene por qué coincidir todo el hash para que salte la alarma.

Entiendo que no todo el mundo tiene porque saberlo, pero el hash no funciona así XD En una imagen, mas si es un formato con compresión como jpg por ejemplo el hash o coincide o no, no hay un "no coincide del todo" y mucho menos con algo como la imagen pasada a blanco y negro. Es decir que para hacer lo que tu dices no estaríamos hablando de hash sino probablemente de comparar las imágenes mediante una IA para lo que las imágenes y no su hash tendría que ser transferido. Y ahí está el importante problema de privacidad.

Un saludo.


entiendo que la comparación, a nivel local, será algo así:
Imagen


Esta claro que es algo así pero aquí algunos se hacen pajas mentales

zeus__85 escribió:
pantrolryuk escribió:Le haces una foto a tu hija con un pato de goma en la bañera y te meten 30 años en el talego

Gracias Apple [beer]

No lo había pensado 😃😃😃 pero tienes mucha razón


Razón? Si la foto no está en la base de datos de esas instituciones que cojones vas a tener razón
zeus__85 escribió:
pantrolryuk escribió:Le haces una foto a tu hija con un pato de goma en la bañera y te meten 30 años en el talego

Gracias Apple [beer]

No lo había pensado 😃😃😃 pero tienes mucha razón

No, no tiene razón, parece que no has leído los comentarios donde explican en qué consiste esto. Si la foto de su hija en la bañera no está en la base de datos registrada de contenido pedófilo, no tiene por qué preocuparse de tener esa foto.
Unos post atrás explican bastante bien cómo funciona el proceso, pero bueno es más fácil atraer a la gente dando por hecho que Apple va a tener total acceso a nuestras fotos. Pues OK.
Sabeis perfectamente que es una excusa, igual que el dia a dia en política de meterte todas sus intenciones de dominación camufladas en causas maravillosas irreales.

Si llegan a pillar a alguien en esto sera algun pringado que ni sabe lo que hace ni tiene que ver con el origen del material, efectividad real cercana a cero, como cuando quieren acabar con el cambio climático con ajustes ridículos en los paises mas concienciados mientras ignoran a los que generan todo, pero claro el objetivo suyo va escondido detras.
berny6969 escribió:
adidi escribió:Que cinicos, excusarse en un problema tan grave y serio simplemente para robar los datos de los usuarios.


yo leyendo el titula pensaba la gente será capaz de entender lo que pone en el texto de la noticia, esta claro que tu no y algunos tampoco leyendo los mensajes del hilo

“nuevas aplicaciones de criptografía"

comprensión lectora macho

Yo tengo mi opinión y tu la tuya si te escuece no leas.
alsaan escribió:
OnixSa escribió:
Cuadri escribió:El fin no siempre justifica los medios.


Que fin? Ya analizan tu fotos apple, samsung, google,etc SIEMPRE LO ESTAN HACIENDO y tu le das permiso en el momento que creas la cuenta.
Todas la fotos son analizadas y con eso suele hacer cosas como los recuerdos, videos-recuerdos hasta gif lo montan. Simplemente añade un algoritmo par poder pillar a pedofilos. Y no pedofilos. Pues la posesión de pornografia infantil también es delito.

Es normal que si subes las fotos a un servicio externo sin encriptar te las puedan acabar escaneando, ahí no creo que nadie tenga ningún problema.

Pero creo que esta es la primera vez que tu propio dispositivo rastrea tus archivos locales y envía chivatazos a las autoridades.

OnixSa escribió:China tiene mas datos nuestro que EEUU y eso ya es decir. Creo que vivis en mundo paralelos o que?

Ya les gustaría... [facepalm]

Uf madre mia Y mas.

Y no no lo es que tu propio dispositivo te rastreen.
Recuerdo una noticia donde alguien tenía fotos de ella misma de pequeña desnuda y creo que la acusaron de pornografía infantil. Imagínate que lo haga un sistema automátizado, increíble. Me siento frustrado cuando pienso en lo que podría pasar.

Como analizen el WhatsApp de muchos va a ser la risa, todos a la cárcel, por usar gif, memes. Ojalá fueran superestrictos y políticos y jueces acaben en la cárcel para que se den cuenta de la bestialidad que hacen.

Pero normalmente cuando hay muchas leyes, injustas, los fuertes se saltan la ley, tirando de abogados, gente que se sabe las trampas, los que no tienen un duro para pagar un abogado pagan los platos.
Si claro para buscar pornografía infantil claro claro.....
Yo creo que los pervertidos son ellos que quieren ver nuestras fotos, igual se pajean viéndolas, a saber....
Pues los que se quejan... que no les violen ni hagan fotos a vuestros hijos el día de mañana.

Desde luego que es una gran noticia que puedan escanear fotos de forma anónima y comparándola con fotos que ya tengan, de esta formas las fotos familiares quedan sin alerta.

Ya lo hace Amazon WS y Google, cualquier compañía que adopte medidas anti pederastas es bienvenida.
136 respuestas
1, 2, 3