Apple escaneará imágenes almacenadas en iPhones y iCloud en busca de pornografía infantil

Benzo
Apple ha anunciado una nueva serie de medidas para proteger a los niños de los pedófilos y limitar la propagación de material de abuso sexual infantil (CSAM, por sus siglas en inglés) en su ecosistema. La iniciativa más polémica es la permitirá a la compañía escanear fotos almacenadas en iPhones y iCloud con el objetivo de detectar material pedófilo. La aplicación de estas medidas se limitará a Estados Unidos, por ahora. En Europa los proveedores de servicios ya pueden monitorizar las comunicaciones en busca de pornografía infantil.

Según indica Apple, iOS, iPadOS, watchOS y macOS recibirán a finales de este año una actualización que incluirá “nuevas aplicaciones de criptografía para ayudar a limitar la propagación de CSAM en línea, a la vez que se tiene en cuenta la privacidad de los usuarios”. La compañía añade que la detección de CSMA será de ayuda a la hora de proporcionar información a las fuerzas del orden sobre colecciones de material pedófilo en iCloud. Siri y Search también intervendrán en caso de que el usuario intente buscar pornografía infantil.

Al igual que otras plataformas en la nube como las gestionadas por Google, Apple ya vigila los archivos de iCloud en busca de material pedófilo, pero el sistema que pondrá en marcha la compañía va más allá, ya que también tendrá acceso al contenido almacenado de forma local. El mecanismo utilizará tecnologías basadas en la coincidencia de hash para buscar similitudes entre las imágenes presentes en el dispositivo y otras ya conocidas como las que tiene el National Center for Missing & Exploited Children (NCMEC) u otras organizaciones.

Apple sostiene que el sistema tiene un "nivel extremadamente alto de precisión y garantiza menos de una en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada”. Cuando haya una coincidencia, el informe será revisado manualmente, la cuenta quedará deshabilitada y se informará a las autoridades. A pesar de que la causa es noble y la promesa de Apple de respetar la privacidad de sus usuarios, ya hay voces que han expresado su preocupación por la existencia de un sistema con estas características.

“Este tipo de herramienta puede ser de gran ayuda para encontrar pornografía infantil en los teléfonos de las personas”, dice Matthew Green, experto en criptografía de Universidad Johns Hopkins, mediante un hilo en su cuenta personal en Twitter. “Pero, ¿te imaginas que podría hacer en manos de un gobierno autoritario?”. Green también pone en duda el sistema de coincidencia de hash, ya que quien controle la lista tendrá la capacidad de buscar cualquier contenido en el teléfono.
Fuente: The Verge
Sobre el autor » Benzo

Empecé con una NES a finales de los 80 y todos los 90 los pasé junto a SNES, N64 y una PlayStation prestada. El nuevo siglo me trajo una PS2 y más adelante una Xbox. Jugador de PC desde hace años, seguidor de Blizzard, lector y seriéfilo.

Más publicaciones de Benzo »

Avatar de Benzo
Síguelo en