Apple escaneará imágenes almacenadas en iPhones y iCloud en busca de pornografía infantil

Benzo
3 0 136
Noticias » Internet
Apple ha anunciado una nueva serie de medidas para proteger a los niños de los pedófilos y limitar la propagación de material de abuso sexual infantil (CSAM, por sus siglas en inglés) en su ecosistema. La iniciativa más polémica es la permitirá a la compañía escanear fotos almacenadas en iPhones y iCloud con el objetivo de detectar material pedófilo. La aplicación de estas medidas se limitará a Estados Unidos, por ahora. En Europa los proveedores de servicios ya pueden monitorizar las comunicaciones en busca de pornografía infantil.

Según indica Apple, iOS, iPadOS, watchOS y macOS recibirán a finales de este año una actualización que incluirá “nuevas aplicaciones de criptografía para ayudar a limitar la propagación de CSAM en línea, a la vez que se tiene en cuenta la privacidad de los usuarios”. La compañía añade que la detección de CSMA será de ayuda a la hora de proporcionar información a las fuerzas del orden sobre colecciones de material pedófilo en iCloud. Siri y Search también intervendrán en caso de que el usuario intente buscar pornografía infantil.

Al igual que otras plataformas en la nube como las gestionadas por Google, Apple ya vigila los archivos de iCloud en busca de material pedófilo, pero el sistema que pondrá en marcha la compañía va más allá, ya que también tendrá acceso al contenido almacenado de forma local. El mecanismo utilizará tecnologías basadas en la coincidencia de hash para buscar similitudes entre las imágenes presentes en el dispositivo y otras ya conocidas como las que tiene el National Center for Missing & Exploited Children (NCMEC) u otras organizaciones.

Apple sostiene que el sistema tiene un "nivel extremadamente alto de precisión y garantiza menos de una en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada”. Cuando haya una coincidencia, el informe será revisado manualmente, la cuenta quedará deshabilitada y se informará a las autoridades. A pesar de que la causa es noble y la promesa de Apple de respetar la privacidad de sus usuarios, ya hay voces que han expresado su preocupación por la existencia de un sistema con estas características.

“Este tipo de herramienta puede ser de gran ayuda para encontrar pornografía infantil en los teléfonos de las personas”, dice Matthew Green, experto en criptografía de Universidad Johns Hopkins, mediante un hilo en su cuenta personal en Twitter. “Pero, ¿te imaginas que podría hacer en manos de un gobierno autoritario?”. Green también pone en duda el sistema de coincidencia de hash, ya que quien controle la lista tendrá la capacidad de buscar cualquier contenido en el teléfono.
136 comentarios
  1. El fin no siempre justifica los medios.
  2. Lo de siempre, se limitaran a eso en el escaneo, o ya que se ponen lo miraran todo ?
  3. Apple ha perdido un cliente por que ya esta harto de sus tonterias. Mi maquina, mis normas. Y punto. Menos mal que tenemos Linux que si no seriamos muy desgraciados en cuanto a privacidad se refiere.

    Mis maquinas estan a mi servicio no yo al de ellas.
  4. Le haces una foto a tu hija con un pato de goma en la bañera y te meten 30 años en el talego

    Gracias Apple [beer]
  5. Cuadri escribió:El fin no siempre justifica los medios.


    +1
  6. A mi me parece una mera excusa para otra invasión más para la privacidad.

    ¿Quien se cree que un pedofilo guardaría fotos en iCloud? Ademas de pedófilo sería g i l i p o l l a s...
  7. No tengo clara la legalidad de lo que van a realizar por muy honorable que sea la idea.
  8. Deseando leer a los fanboys de Apple defender esto… lo hacen por nuestro bien!
    Es como dar derecho a la policía a entrar a cualquier casa por si se está cometiendo un delito cuando lea de la gana…
  9. Buscar en local quiere decir que busca en las fotos que haces. Seguramente ya se haga, pero es bastante bestia, más cuando utilicen algoritmos que interpreten a su manera (como el que ha dicho lo de la foto de tu hija en la bañera con un pato de goma). Supongo que después habrá un filtro humano.

    Sigue siendo, de todos modos, un asalto a la intimidad de las personas. Construyen un futuro donde no existe ninguna intimidad, con la excusa de poder perseguir mejor a los criminales. Es un arma de doble filo.
  10. Menos mal que presumen de seguridad en sus teléfonos pero ellos son los primeros en espiar.
Ver más comentarios »