Apple ha anunciado una nueva serie de medidas para proteger a los niños de los pedófilos y limitar la propagación de material de abuso sexual infantil (CSAM, por sus siglas en inglés) en su ecosistema. La iniciativa más polémica es la permitirá a la compañía escanear fotos almacenadas en iPhones y iCloud con el objetivo de detectar material pedófilo. La aplicación de estas medidas se limitará a Estados Unidos, por ahora. En Europa los proveedores de servicios ya pueden monitorizar las comunicaciones en busca de pornografía infantil.
Según indica Apple, iOS, iPadOS, watchOS y macOS recibirán a finales de este año una actualización que incluirá “nuevas aplicaciones de criptografía para ayudar a limitar la propagación de CSAM en línea, a la vez que se tiene en cuenta la privacidad de los usuarios”. La compañía añade que la detección de CSMA será de ayuda a la hora de proporcionar información a las fuerzas del orden sobre colecciones de material pedófilo en iCloud. Siri y Search también intervendrán en caso de que el usuario intente buscar pornografía infantil.
Al igual que otras plataformas en la nube como las gestionadas por Google, Apple ya vigila los archivos de iCloud en busca de material pedófilo, pero el sistema que pondrá en marcha la compañía va más allá, ya que también tendrá acceso al contenido almacenado de forma local. El mecanismo utilizará tecnologías basadas en la coincidencia de hash para buscar similitudes entre las imágenes presentes en el dispositivo y otras ya conocidas como las que tiene el National Center for Missing & Exploited Children (NCMEC) u otras organizaciones.
Apple sostiene que el sistema tiene un "nivel extremadamente alto de precisión y garantiza menos de una en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada”. Cuando haya una coincidencia, el informe será revisado manualmente, la cuenta quedará deshabilitada y se informará a las autoridades. A pesar de que la causa es noble y la promesa de Apple de respetar la privacidad de sus usuarios, ya hay voces que han expresado su preocupación por la existencia de un sistema con estas características.
“Este tipo de herramienta puede ser de gran ayuda para encontrar pornografía infantil en los teléfonos de las personas”, dice Matthew Green, experto en criptografía de Universidad Johns Hopkins, mediante un hilo en su cuenta personal en Twitter. “Pero, ¿te imaginas que podría hacer en manos de un gobierno autoritario?”. Green también pone en duda el sistema de coincidencia de hash, ya que quien controle la lista tendrá la capacidad de buscar cualquier contenido en el teléfono.
Según indica Apple, iOS, iPadOS, watchOS y macOS recibirán a finales de este año una actualización que incluirá “nuevas aplicaciones de criptografía para ayudar a limitar la propagación de CSAM en línea, a la vez que se tiene en cuenta la privacidad de los usuarios”. La compañía añade que la detección de CSMA será de ayuda a la hora de proporcionar información a las fuerzas del orden sobre colecciones de material pedófilo en iCloud. Siri y Search también intervendrán en caso de que el usuario intente buscar pornografía infantil.
Al igual que otras plataformas en la nube como las gestionadas por Google, Apple ya vigila los archivos de iCloud en busca de material pedófilo, pero el sistema que pondrá en marcha la compañía va más allá, ya que también tendrá acceso al contenido almacenado de forma local. El mecanismo utilizará tecnologías basadas en la coincidencia de hash para buscar similitudes entre las imágenes presentes en el dispositivo y otras ya conocidas como las que tiene el National Center for Missing & Exploited Children (NCMEC) u otras organizaciones.
Apple sostiene que el sistema tiene un "nivel extremadamente alto de precisión y garantiza menos de una en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada”. Cuando haya una coincidencia, el informe será revisado manualmente, la cuenta quedará deshabilitada y se informará a las autoridades. A pesar de que la causa es noble y la promesa de Apple de respetar la privacidad de sus usuarios, ya hay voces que han expresado su preocupación por la existencia de un sistema con estas características.
“Este tipo de herramienta puede ser de gran ayuda para encontrar pornografía infantil en los teléfonos de las personas”, dice Matthew Green, experto en criptografía de Universidad Johns Hopkins, mediante un hilo en su cuenta personal en Twitter. “Pero, ¿te imaginas que podría hacer en manos de un gobierno autoritario?”. Green también pone en duda el sistema de coincidencia de hash, ya que quien controle la lista tendrá la capacidad de buscar cualquier contenido en el teléfono.
Mis maquinas estan a mi servicio no yo al de ellas.
Gracias Apple [beer]
+1
¿Quien se cree que un pedofilo guardaría fotos en iCloud? Ademas de pedófilo sería g i l i p o l l a s...
Es como dar derecho a la policía a entrar a cualquier casa por si se está cometiendo un delito cuando lea de la gana…
Sigue siendo, de todos modos, un asalto a la intimidad de las personas. Construyen un futuro donde no existe ninguna intimidad, con la excusa de poder perseguir mejor a los criminales. Es un arma de doble filo.