La EFF, el jefe de WhatsApp y diversos expertos ven graves riesgos en el escaneo de pornografía infantil de Apple

Alejo I
9 0 22
Noticias » Internet
Actualización: Apple se ha defendido de las acusaciones de introducir puertas traseras en el FAQ sobre el funcionamiento del sistema. En él, asegura que las listas de hashes son iguales para todos los usuarios y que solo utilizarán aquellos proporcionados por organizaciones relacionadas con la protección de menores.

Asimismo, la compañía defiende que rechazará las exigencias de gobiernos para añadir otra clase de búsquedas. "Ya nos hemos enfrentado antes a demandas para crear y desplegar cambios ordenados desde gobiernos que degradan la privacidad de los usuarios, y las hemos rechazado firmemente. Seguiremos rechazándolas en el futuro", afirma el documento.

Noticia original: Hace apenas unos días Apple anunció que próximamente desplegará una nueva estrategia para evitar la difusión de pornografía infantil implementando un mecanismo de escaneo en las cuentas de iCloud Photos. Para ello se valdrá de información proporcionada por el National Center for Missing and Exploited Children de Estados Unidos, que proporcionará los hashes criptográficos de imágenes ya conocidas para que Apple pueda buscar coincidencias y alertar a las autoridades.

El sistema diseñado por Apple incorpora una serie de salvaguardas para evitar abusos. Por ejemplo, no genera información alguna de las imágenes que no coincidan con los hashes en cuestión y los avisos se envían manualmente a las autoridades en lugar de utilizando sistemas automatizados. No obstante, expertos en privacidad y seguridad informática advierten que esta tecnología posee riesgos importantes, particularmente en lo que se refiere a su abuso por parte de gobiernos.

La Electronic Frontier Foundation (EFF) ha sido una de las organizaciones más rápidas a la hora de responder. Según esta ONG dedicada proteger la libertad de expresión en Internet, "el filtrado de iMessage e iCloud no es una pendiente resbaladiza que abre puertas traseras" a la supresión de opiniones, sino que se trata de un "sistema totalmente integrado que tan solo está esperando" a que alguien lo explote con otros fines.

El temor de la EFF es que el sistema de hashes, que ahora solo detecta imágenes pornográficas basándose en coincidencias (un hash es un valor alfanumérico único generado por un archivo; técnicamente Apple no "mira" los contenidos de las fotos per se) pueda ser utilizado para buscar otro tipo de contenidos "dañinos". Puesto que la tecnología ya está ahí, un gobierno lo suficientemente determinado no tendría muchos problemas en pedir (o exigir) a Apple que realice otro tipo de búsquedas.

El líder de WhatsApp, Will Cathcart, también expresó su preocupación poco después de conocerse la noticia, asegurando que se trata de un "sistema de vigilancia creado y operado por Apple que podría utilizarse muy fácilmente para escanear contenido privado". Según Cathcart (que tiene sus propios intereses, como debería ser obvio), el sistema de WhatsApp, que se basa en reportes de usuarios "no rompe el cifrado" y supone una alternativa aceptable, a diferencia del propuesto por Apple.

Más recientemente, Tim Sweeney ha declarado sin mencionar a Apple que "deberíamos abandonar la tentación de improvisar dictados sobre las vidas de los usuarios a través de la extraña mezcla de populismo, relaciones públicas y búsqueda de beneficios". El CEO de Epic considera que la respuesta a los problemas actuales no debería ser que "las corporaciones reinen sobre todo Internet", y que los antiguos principios de protección de las comunicaciones, creados "allá cuando el gobierno era la fuerza más poderosa en las vidas de la gente" deberían servir de guía en la actualidad.

Dicho todo esto, es importante indicar que el sistema descrito se aplica a los archivos alojados en iCloud. En el caso de las imágenes enviadas por Messages, Apple utiliza un enfoque totalmente distinto y circunscrito a las familias, sin llegar a avisar a las autoridades. En lugar de hashes, la tecnología utilizada por Apple detecta "imágenes sexualmente explícitas" (presumiblemente mediante IA), emborronándolas para evitar su visualización directa y avisando al menor que envía o recibe dicho archivo. También es posible alertar a los padres de niños de 12 años o más jóvenes para que estén al corriente de que pueden estar manteniendo conversaciones inapropiadas y/o peligrosas.

Cabe señalar que el proceso de escaneo de pornografía infantil mediante hashes no es algo totalmente nuevo. Gmail y Facebook utilizan sistemas similares, y no hace mucho el Parlamento Europeo aprobó el uso de este tipo de herramientas, aunque en este último caso son de aplicación voluntaria y su uso debe regirse por los dictámenes de las autoridades de protección de datos de cada país.
22 comentarios
  1. Todos sabemos que empiezan por la pornografia infantil porque es algo a lo que cuesta oponerse pero poco a poco lo irán extendiendo hasta donde quieran.
  2. Es que a nadie le puede parecer bien, salvo que tengas 2 neuronas (o jamas cuentes comprar un iPhone y directamente te la sude).

    Ademas en este caso en concreto Apple ha metido la pata porque ha dejado claro una grandisima hipocresia donde por un lado no quiere dejar acceder a las agencias a los datos de "terroristas" por una supuesta privacidad y por el otro va a escanear y en caso de match (que puede ser falso positivo, por mismamente una foto de tus hijos en la bañera) va a revisar en persona fotos privadas de la gente. Supongo que la privacidad solo les importa cuando no son ellos los que cuchichean xD.

    Sabeis lo mas gracioso aun del asunto, que si alguna de esas personas que van a revisar las fotos privadas de la gente les da por publicarlas por ahi (y no puedes meter la mano en el fuego de que eso jamas pueda pasar porque podria perfectamente). Al final por mucho cuidado que tu tengas con el movil y con las contraseñas, tus fotos privadas (o las de tus hijos) pueden terminar publicadas por ahi sin tu consentimiento... me parece una grandisima idea SIN FISURAS.
  3. De todo el artículo, donde debemos centrarnos es donde realmente está la critica, aquí:

    El temor de la EFF es que el sistema de hashes, que ahora solo detecta imágenes pornográficas basándose en coincidencias (un hash es un valor alfanumérico único generado por un archivo; técnicamente Apple no "mira" los contenidos de las fotos per se) pueda ser utilizado para buscar otro tipo de contenidos "dañinos". Puesto que la tecnología ya está ahí, un gobierno lo suficientemente determinado no tendría muchos problemas en pedir (o exigir) a Apple que realice otro tipo de búsquedas.


    ¿Puede un gobierno exigir a Apple tales acciones cuando ni siquiera se ofrecian a desbloquear el teléfono de un terrorista o persona de interés?
    Es decir, no temen a Apple, sino a otros.

    Como si el Gobierno Americano necesitase de alguien para meterse en las vidas de la gente [qmparto] [qmparto] [qmparto] [qmparto] [qmparto]

    jimi escribió:Es que a nadie le puede parecer bien, salvo que tengas 2 neuronas (o jamas cuentes comprar un iPhone y directamente te la sude).

    Ademas en este caso en concreto Apple ha metido la pata porque ha dejado claro una grandisima hipocresia donde por un lado no quiere dejar acceder a las agencias a los datos de "terroristas" por una supuesta privacidad y por el otro va a escanear y en caso de match (que puede ser falso positivo, por mismamente una foto de tus hijos en la bañera) va a revisar en persona fotos privadas de la gente. Supongo que la privacidad solo les importa cuando no son ellos los que cuchichean xD.


    El sistema en teoría tiene una fiabilidad de una en un billón, ni tan mal. O sea que yo no me preocuparía mucho por esos falsos positivos.

    Además, tal y como indica la noticia, estos análisis ya se hacen por parte de Google y Facebook.
    No soy fanboy de Apple, pero me hace gracia como cada día la gente hace uso de todo tipo de terminales, webs y aplicaciones de las dos empresas más megalomaníacas en cuanto a datos personales se refiere, de la historia de la humanidad. Whatsapp? Google? Facebook? Pero por favor, los datos personales son su negocio.
    A Apple mientras compres sus mierdas a precio de oro, no se van a meter en tus datos y tus historias. No es su negocio, al menos no a dia de hoy.

    Un saludo,
  4. adriano_99 escribió:Todos sabemos que empiezan por la pornografia infantil porque es algo a lo que cuesta oponerse pero poco a poco lo irán extendiendo hasta donde quieran.

    Tal cual.
  5. @SnakeElegido Apple ya lo esta haciendo en china, sino no podria vender ahi sus telefonos xD. No lo hace con lo del FBI porque no quieren darle acceso a otra parte a sus claves, e incluso sin dar sus claves tampoco quieren dar la impresion de sus telefonos no son seguros ya que el FBI puede acceder a los datos (aunque realmente Apple si puede xD).

    La fiabilidad esa de donde te la sacas? Como hicieron las pruebas? Cogieron a un billon de usuarios actuales de apple y lo comprobaron? En fin... esta muy bien el marketing y la tonteria, pero la realidad es la que es y ni de coña va a ser asi, ni parecido. Y aunque tuviese una fiabilidad de la ostia (que lo dudo por muchas razones, ni la IA es tan fiable a estas alturas, menos un hash), nadie en su sano juicio deberia permitir semejante tropelia y que las fotos de tus hijos puedan terminar a saber en que manos (o incluso publicadas por ahi) sin tu tener la menor culpa. Ya se que a mucha gente se la suda e incluso lo suban al iCloud (aunque muchos es por desconocimiento), pero a mucha otra dudo que le haga mucha gracia ;).

    Lo dicho, una escusa mas para implementar un sistema de escaneo de datos privados (casi siempre se usa el tema de pornografia o explotacion infantil y terrorismo ya que asi nadie "se puede poner en contra"). Al que le guste que lo aplauda, pero que luego no se eche las manos a la cabeza.
  6. Ya saben el 99% de nosotros esos cabrones, sólo falta que hables de cualquier cosa, para que aparezcan los anuncios a los 5 minutos en cualquier aplicación que usemos.

    Lo de escudarse en la pornografía infantil directamente me da asco, escoria.
  7. Pero porque pornografia infantil? porque no terrorismo, asesinatos... no se, hay millones de cosas chungas en el mundo éste de mierda. Meter ahora por la fuerza eso es como cuando alguien te cuenta una mentira y él mismo se delata por lo ridicula de su respuesta.... vale, ahora me vas a contar la verdad [toctoc]

  8. Ahora va a resultar que vulnerar la privacidad de millones de usuarios con una excusa estúpida (estúpida en el sentido de que si avisan antes de buscar, los criminales borrarán o sacarán de ahí lo que tengan metido) no es una buena idea... ¿Quien lo habría pensado?.
  9. Independientemente que las acciones de Apple en este caso puedan tener un objetivo ¨Noble”, quisiera saber qué estado democrático le cedió las atribuciones de cazar personas, cumplieron algún requisito legal o moral para poder asumir esas atribuciones o simplemente ellos se levantaron una mañana y dijeron estas personas no me gustan así que las eliminare, porque hoy es esto, pero otro día quizás quieran cazar ciertas tendencias políticas o grupos sociales, ¿quién pone limite a estas empresas?, "¿quién vigila a los vigilantes?".
  10. Yo la verdad es que esto lo veo muy absurdo, porque solo con recortar la imagen, poner una marca de agua, o cualquier minima modificacion, el hash ya cambia. Solo van a pillar a los panolis.
Ver más comentarios »