Apple escaneará imágenes almacenadas en iPhones y iCloud en busca de pornografía infantil

1, 2, 3
Apple ha anunciado una nueva serie de medidas para proteger a los niños de los pedófilos y limitar la propagación de material de abuso sexual infantil (CSAM, por sus siglas en inglés) en su ecosistema. La iniciativa más polémica es la permitirá a la compañía escanear fotos almacenadas en iPhones y iCloud con el objetivo de detectar material pedófilo. La aplicación de estas medidas se limitará a Estados Unidos, por ahora. En Europa los proveedores de servicios ya pueden monitorizar las comunicaciones en busca de pornografía infantil.

Según indica Apple, iOS, iPadOS, watchOS y macOS recibirán a finales de este año una actualización que incluirá “nuevas aplicaciones de criptografía para ayudar a limitar la propagación de CSAM en línea, a la vez que se tiene en cuenta la privacidad de los usuarios”. La compañía añade que la detección de CSMA será de ayuda a la hora de proporcionar información a las fuerzas del orden sobre colecciones de material pedófilo en iCloud. Siri y Search también intervendrán en caso de que el usuario intente buscar pornografía infantil.

Al igual que otras plataformas en la nube como las gestionadas por Google, Apple ya vigila los archivos de iCloud en busca de material pedófilo, pero el sistema que pondrá en marcha la compañía va más allá, ya que también tendrá acceso al contenido almacenado de forma local. El mecanismo utilizará tecnologías basadas en la coincidencia de hash para buscar similitudes entre las imágenes presentes en el dispositivo y otras ya conocidas como las que tiene el National Center for Missing & Exploited Children (NCMEC) u otras organizaciones.

Apple sostiene que el sistema tiene un "nivel extremadamente alto de precisión y garantiza menos de una en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada”. Cuando haya una coincidencia, el informe será revisado manualmente, la cuenta quedará deshabilitada y se informará a las autoridades. A pesar de que la causa es noble y la promesa de Apple de respetar la privacidad de sus usuarios, ya hay voces que han expresado su preocupación por la existencia de un sistema con estas características.

“Este tipo de herramienta puede ser de gran ayuda para encontrar pornografía infantil en los teléfonos de las personas”, dice Matthew Green, experto en criptografía de Universidad Johns Hopkins, mediante un hilo en su cuenta personal en Twitter. “Pero, ¿te imaginas que podría hacer en manos de un gobierno autoritario?”. Green también pone en duda el sistema de coincidencia de hash, ya que quien controle la lista tendrá la capacidad de buscar cualquier contenido en el teléfono.

Fuente: The Verge
El fin no siempre justifica los medios.
Lo de siempre, se limitaran a eso en el escaneo, o ya que se ponen lo miraran todo ?
Apple ha perdido un cliente por que ya esta harto de sus tonterias. Mi maquina, mis normas. Y punto. Menos mal que tenemos Linux que si no seriamos muy desgraciados en cuanto a privacidad se refiere.

Mis maquinas estan a mi servicio no yo al de ellas.
Le haces una foto a tu hija con un pato de goma en la bañera y te meten 30 años en el talego

Gracias Apple [beer]
Cuadri escribió:El fin no siempre justifica los medios.


+1
A mi me parece una mera excusa para otra invasión más para la privacidad.

¿Quien se cree que un pedofilo guardaría fotos en iCloud? Ademas de pedófilo sería g i l i p o l l a s...
No tengo clara la legalidad de lo que van a realizar por muy honorable que sea la idea.
Deseando leer a los fanboys de Apple defender esto… lo hacen por nuestro bien!
Es como dar derecho a la policía a entrar a cualquier casa por si se está cometiendo un delito cuando lea de la gana…
Buscar en local quiere decir que busca en las fotos que haces. Seguramente ya se haga, pero es bastante bestia, más cuando utilicen algoritmos que interpreten a su manera (como el que ha dicho lo de la foto de tu hija en la bañera con un pato de goma). Supongo que después habrá un filtro humano.

Sigue siendo, de todos modos, un asalto a la intimidad de las personas. Construyen un futuro donde no existe ninguna intimidad, con la excusa de poder perseguir mejor a los criminales. Es un arma de doble filo.
Menos mal que presumen de seguridad en sus teléfonos pero ellos son los primeros en espiar.
Esto sólo en USA de momento, pero esta otra noticia, del 8 de Julio, le da el mismo poder, pero a los operadores (ya seas iPhone, Android o "Nokia del año 2000"):

noticias/internet/monitorizacion-comunicaciones-union-europea-pornografia-infantil
A ver ahora qué piensan los clientes de Apple, si lo ven bien por "seguridad" o mal por "privacidad" XD
Ahora te lo miro apple.
Actualmente el iPhone, cuando está bloqueado y cargando, ya escanea todas tus fotos para encontrar caras y cosas en común. Y con eso te crea lo que llama "recuerdos": álbumes de fotos, categorización por personas, y cosas asi muy muy chulas. Lo hace también con tus animales.

Seguramente esto sea idéntico, solo que con las caras de las fotos, hará un hash/checksum o lo que sea -tal y como indica la noticia- y lo comparará con la base de datos de pedófilos de los gobiernos -tal y como indica la noticia-. Con lo que a menos que haya una coincidencia entre ambas, tus fotos jamás se subirán a ninguna parte ni nadie las mirará.

Somos muy de alarmarnos cada vez que salen una noticia de este tipo pero:
1. La gente reacciona sin haberla comprendido bien
2. Al final les suda los cojones, irán cada dia a Facebook, Instagram, Twitter... y comprarán el móvil que les salga de los huevos. Poned fotos vuestras ahora en la playa, con vuestros hijos si es posible, a sabiendas de que esas fotos ahora le pertenecen a Instagram. Y el móvil, si es chino mejor, ¿¿Qué puede ir mal?

Pero cada vez que sale una noticia de este tipo: OH MY GOD IT'S 1984!!!!!!!!!!!!
[qmparto] [qmparto]

Un saludo,
SnakeElegido escribió:Actualmente el iPhone, cuando está bloqueado y cargando, ya escanea todas tus fotos para encontrar caras y cosas en común. Y con eso te crea lo que llama "recuerdos": álbumes de fotos, categorización por personas, y cosas asi muy muy chulas. Lo hace también con tus animales.


No, no es muy muy chulo. Pone los pelos muy muy de punta. A los usuarios de Apple supongo que ese rollo les mola.
con apagar los servers del Vaticano solucionaría muchos problemas
Veo que la gente aquí es top. Aplica el manual del hater de Apple al dedillo con el mandamiento número 1 "No te leerás las noticias y criticarás como si no hubiera un mañana"

¿Alguno ha leído el funcionamiento? Os lo resumo: NO se van a ver las fotos, ni desnudos ni con ropa.

Hay una base de datos (que existe hace años) con los hash de fotografías de pornografía infantil que se van recopilando cada día. Apple lo que hará es comparar esos hash con los de tus fotos SIN VER NINGUNA IMAGEN para ver si coinciden, de coincidir es que tienes una foto de pornografía infantil.

Dejad las pajas mentales de que van a ver vuestras mini porras y los 50gb de porno que guardáis en iCloud.
Casi treinta años después Apple se va a convertir en el odiado gran hermano de su propia publicidad
pantrolryuk escribió:Le haces una foto a tu hija con un pato de goma en la bañera y te meten 30 años en el talego

Gracias Apple [beer]


Esto venia a decir, tengo decenas y decenas de fotos de mis hijos en las que se les ve desnudos enteros, no creo que esto sea muy lega….
Y si yo tengo fotos de mi hija desnuda en la bañera o en la piscina ellos quien pollas son para escanear mis fotos????

Nunca he tenido iPhone, pero la verdad, con Android tampoco me quedo mucho más tranquilo.
kitinota escribió:
pantrolryuk escribió:Le haces una foto a tu hija con un pato de goma en la bañera y te meten 30 años en el talego

Gracias Apple [beer]


Esto venia a decir, tengo decenas y decenas de fotos de mis hijos en las que se les ve desnudos enteros, no creo que esto sea muy lega….


El sistema compara fotos con las que tiene el National Center for Missing & Exploited Children (NCMEC), así que puedes hacer y almacenar todas las fotos que quieras de tu hijo en la bañera con un pato de goma que no saltará ninguna alarma.
que problema hay?, si no os gusta desativas icloud y ya esta, el servicio es de apple y pone las condiciones que les sale del rabo, donde por cierto ya escanan absolutamente todas tus fotos :)
Y ya que estamos aqui...
(mensaje borrado)
Naitguolf escribió:
SnakeElegido escribió:Actualmente el iPhone, cuando está bloqueado y cargando, ya escanea todas tus fotos para encontrar caras y cosas en común. Y con eso te crea lo que llama "recuerdos": álbumes de fotos, categorización por personas, y cosas asi muy muy chulas. Lo hace también con tus animales.


No, no es muy muy chulo. Pone los pelos muy muy de punta. A los usuarios de Apple supongo que ese rollo les mola.



samsung tambien lo hace
Cuadri escribió:El fin no siempre justifica los medios.


+1
No creo que moleste mucho a sus usuarios, no tienen nada que esconder y es por un bien común así que bienvenido sea, yo por si acaso sigo sin comprar nada de ellos.
Una foto en pelotas de cuando era yo pequeño podia ser considerada PI?
Os traduzco yo la noticia:

"Apple entrenará sus modelos de machine learning de manera gratuita a costa de sus usuarios después de venderles móviles de más de mil euros a costa de su privacidad escaneandolas de manera intensiva."
Marat escribió:Una foto en pelotas de cuando era yo pequeño podia ser considerada PI?



Si ha acabado en las bases del FBI si, si se ha traficado con ella y demás. Sino, pues no.
DavET está baneado por "Saltarse el ban con un clon"
Si solo fuera eso ... :-|
Pero si lo llevan haciendo lustros ... [tomaaa]

Seguro que luego las venden o se las quedan para su cole ... :O
No eran reacios a abrir iphones para temas antiterroristas promocionando que lo primero para ellos es la privacidad?
Os explico como he entendido que funciona esto:

Se baja el iPhone un fichero con identificadores de imágenes pedofilas (hash de cada imagen) y a la vez, internamente sin necesidad de internet,se genera un fichero con el hash de cada imagen del iphone.

Si alguna imagen del iPhone coincide con una pedofila salga una alarma.

No veo que se comprometa la privacidad de nadie (o casi nadie)
Ahora ponemos el grito en el cielo, pero mañana no os vais a acordar de na. Mañana no, en media hora.
Crápula escribió:Ahora ponemos el grito en el cielo, pero mañana no os vais a acordar de na. Mañana no, en media hora.


Ya se les ha olvidado [carcajad] [carcajad]

anonimo115 escribió:Os explico como he entendido que funciona esto:

Se baja el iPhone un fichero con identificadores de imágenes pedofilas (hash de cada imagen) y a la vez, internamente sin necesidad de internet,se genera un fichero con el hash de cada imagen del iphone.

Si alguna imagen del iPhone coincide con una pedofila salga una alarma.

No veo que se comprometa la privacidad de nadie (o casi nadie)


Pero hombre... si lo explicas entonces no se puede venir aquí a competir por el comentario más ingenioso.

@SnakeElegido Además que todos ya les hemos entregado a cualquier compañía de esta nuestros datos. Tienen más información de nosotros que nosotros mismos.
xboxadicto escribió:
Naitguolf escribió:
SnakeElegido escribió:Actualmente el iPhone, cuando está bloqueado y cargando, ya escanea todas tus fotos para encontrar caras y cosas en común. Y con eso te crea lo que llama "recuerdos": álbumes de fotos, categorización por personas, y cosas asi muy muy chulas. Lo hace también con tus animales.


No, no es muy muy chulo. Pone los pelos muy muy de punta. A los usuarios de Apple supongo que ese rollo les mola.



samsung tambien lo hace


En los samsung puedes desactivar los servicios y aplicaciones que lo hacen, cambiarlas por otras o incluso cambiar la rom entera...
anonimo115 escribió:Os explico como he entendido que funciona esto:

Se baja el iPhone un fichero con identificadores de imágenes pedofilas (hash de cada imagen) y a la vez, internamente sin necesidad de internet,se genera un fichero con el hash de cada imagen del iphone.

Si alguna imagen del iPhone coincide con una pedofila salga una alarma.

No veo que se comprometa la privacidad de nadie (o casi nadie)

Si es así yo tampoco vería ningún problema pero me resulta difícil de creer por 2 motivos:

Primero mucha gente tiene cientos o miles de de fotos a alta resolución en el móvil, hacer el hash de tantos archivos relativamente pesados es una tarea larga e intensiva, si se va haciendo poco a poco en segundo plano una de dos o se hace tan despacio que básicamente no acaba nunca o se come la batería del móvil que da gusto.

Segundo: No creo que el hash sea una forma efectiva de encontrarlas, es decir, son imágenes, se comprimen, se escalan, se eliminan o modifican metadatos, puede haber 20 versiones de una imagen que son archivos distintos con hash distintos y ser exactamente la misma imagen.
No se, no lo veo viable.

Un saludo.
Einy escribió:
anonimo115 escribió:Os explico como he entendido que funciona esto:

Se baja el iPhone un fichero con identificadores de imágenes pedofilas (hash de cada imagen) y a la vez, internamente sin necesidad de internet,se genera un fichero con el hash de cada imagen del iphone.

Si alguna imagen del iPhone coincide con una pedofila salga una alarma.

No veo que se comprometa la privacidad de nadie (o casi nadie)

Si es así yo tampoco vería ningún problema pero me resulta difícil de creer por 2 motivos:

Primero mucha gente tiene cientos o miles de de fotos a alta resolución en el móvil, hacer el hash de tantos archivos relativamente pesados es una tarea larga e intensiva, si se va haciendo poco a poco en segundo plano una de dos o se hace tan despacio que básicamente no acaba nunca o se come la batería del móvil que da gusto.

Segundo: No creo que el hash sea una forma efectiva de encontrarlas, es decir, son imágenes, se comprimen, se escalan, se eliminan o modifican metadatos, puede haber 20 versiones de una imagen que son archivos distintos con hash distintos y ser exactamente la misma imagen.
No se, no lo veo viable.

Un saludo.

Por lo visto el algoritmo detecta variaciones (la guarda en blanco y negro, guardan parte de la imagen, etc).
No tiene por qué coincidir todo el hash para que salte la alarma.
Teniendo el cuenta cómo hacen esto de la protección infantil, no me fío un pelo. Hace un tiempo youtube me quitó un video alegando lo mismo, protección infantil. Era un vídeo de invitación a la boda, donde salíamos mi esposa y yo desde pequeños. Se lo dije, les dio lo mismo, video retirado.

Ya tenemos otra excusa para destruir nuestra privacidad. Hasta escanear nuestros archivos locales. Y ojo, no es sólo Apple, las que no lo hacen ya, lo van a hacer, si Apple lo hace, y puede, las demás le siguen.
Las empresas se han convertido en policías y es por nuestro bien :-|



Es sarcasmo.
Pues a mi que me parece bien, solo me preocupa como distinguirán las fotos que la gente que haga a sus hijos en la bañera, o desnudos sin ninguna intencionalidad de las que si....
COCONUT_EOL escribió:
Marat escribió:Una foto en pelotas de cuando era yo pequeño podia ser considerada PI?



Si ha acabado en las bases del FBI si, si se ha traficado con ella y demás. Sino, pues no.


Entiendo que buscaran coincidencias no material concreto. Usaran el mismo sistema que usa google para buscar semejanzas en las imagenes.

Yo no lo veo y puede traer problemas desagradables a mas de uno.
ganzano escribió:Pues a mi que me parece bien, solo me preocupa como distinguirán las fotos que la gente que haga a sus hijos en la bañera, o desnudos sin ninguna intencionalidad de las que si....


No lo hacen. Es un caballo de troya. Lo de la pornografía infantil no es más que una excusa para poder acceder a todos nuestros archivos.


Los que no querían colaborar con el FBI contra el terrorismo, ahora buscan pornografía infantil, como si les importaran algo los niños.
¿Y si tengo una foto en pelotas de mi hijo en mi iphone? ¿La inteligencia artificial determinará que eso es pornografía infantil? ¿Tienen entonces vía libre para ver a mi hijo en pelotas?
Me paree que todo esto son mamonadas y excusas para meterse en la vida privada de la gente.
Pero bueno, por lo menos son honestos y lo dicen, no como los chinos.
llevan decadas 'espiandonos' desde los inicios de las redes sociales (cualquiera de las grandes y no tan grandes)

lo unico es q van usando argumentos legales y/o eticos para poder seguir haciendolo sin problemas legales o reticiencias de los usuarios.

Y sí, las fotos/videos privad@s llevan los mismo años estando sujetas a miradas indiscretas. Otra cosa es q tus fotos de las vacaciones en la playa sean menos interesantes q las de otras personas mas conocidas/relevantes/famosas.

La privacidad total nunca ha existido, la diferencia es q antes invadirla impunemente solo estaba al alcance de los pocos q tenian el poder de decidir lo q estaba bien y lo q estaba mal. Ahora esta al alcance de cientos de miles de personas mal pagadas y/o con mucho tiempo libre.
anonimo115 escribió:
Einy escribió:
anonimo115 escribió:Os explico como he entendido que funciona esto:

Se baja el iPhone un fichero con identificadores de imágenes pedofilas (hash de cada imagen) y a la vez, internamente sin necesidad de internet,se genera un fichero con el hash de cada imagen del iphone.

Si alguna imagen del iPhone coincide con una pedofila salga una alarma.

No veo que se comprometa la privacidad de nadie (o casi nadie)

Si es así yo tampoco vería ningún problema pero me resulta difícil de creer por 2 motivos:

Primero mucha gente tiene cientos o miles de de fotos a alta resolución en el móvil, hacer el hash de tantos archivos relativamente pesados es una tarea larga e intensiva, si se va haciendo poco a poco en segundo plano una de dos o se hace tan despacio que básicamente no acaba nunca o se come la batería del móvil que da gusto.

Segundo: No creo que el hash sea una forma efectiva de encontrarlas, es decir, son imágenes, se comprimen, se escalan, se eliminan o modifican metadatos, puede haber 20 versiones de una imagen que son archivos distintos con hash distintos y ser exactamente la misma imagen.
No se, no lo veo viable.

Un saludo.

Por lo visto el algoritmo detecta variaciones (la guarda en blanco y negro, guardan parte de la imagen, etc).
No tiene por qué coincidir todo el hash para que salte la alarma.


Me imagino que se podrían utilizarán técnicas similares a la de la huella digital, mediante aplicación de transformada Z para extraer un "ID" de la imagen. Aún así, el porcentaje de colisión podría ser muy alto, y por lo tanto habrían muchos falsos positivos, en caso tal tendrían que obtener la imagen original y hacer un análisis más profundo.
Aquí lo de sacar una foto a tu propio hijo pequeño en bolas en la bañera, jardin e incluso en una playa no es un delito, ni está mal visto por casi nadie (menos por algún puto enfermo meapilas)

Lo preocupante no es lo que dicen hacer, más bien lo que ya estarán haciendo y no lo dicen.
136 respuestas
1, 2, 3