La EFF, el jefe de WhatsApp y diversos expertos ven graves riesgos en el escaneo de pornografía infantil de Apple

Alejo I
Actualización: Apple se ha defendido de las acusaciones de introducir puertas traseras en el FAQ sobre el funcionamiento del sistema. En él, asegura que las listas de hashes son iguales para todos los usuarios y que solo utilizarán aquellos proporcionados por organizaciones relacionadas con la protección de menores.

Asimismo, la compañía defiende que rechazará las exigencias de gobiernos para añadir otra clase de búsquedas. "Ya nos hemos enfrentado antes a demandas para crear y desplegar cambios ordenados desde gobiernos que degradan la privacidad de los usuarios, y las hemos rechazado firmemente. Seguiremos rechazándolas en el futuro", afirma el documento.

Noticia original: Hace apenas unos días Apple anunció que próximamente desplegará una nueva estrategia para evitar la difusión de pornografía infantil implementando un mecanismo de escaneo en las cuentas de iCloud Photos. Para ello se valdrá de información proporcionada por el National Center for Missing and Exploited Children de Estados Unidos, que proporcionará los hashes criptográficos de imágenes ya conocidas para que Apple pueda buscar coincidencias y alertar a las autoridades.

El sistema diseñado por Apple incorpora una serie de salvaguardas para evitar abusos. Por ejemplo, no genera información alguna de las imágenes que no coincidan con los hashes en cuestión y los avisos se envían manualmente a las autoridades en lugar de utilizando sistemas automatizados. No obstante, expertos en privacidad y seguridad informática advierten que esta tecnología posee riesgos importantes, particularmente en lo que se refiere a su abuso por parte de gobiernos.

La Electronic Frontier Foundation (EFF) ha sido una de las organizaciones más rápidas a la hora de responder. Según esta ONG dedicada proteger la libertad de expresión en Internet, "el filtrado de iMessage e iCloud no es una pendiente resbaladiza que abre puertas traseras" a la supresión de opiniones, sino que se trata de un "sistema totalmente integrado que tan solo está esperando" a que alguien lo explote con otros fines.

El temor de la EFF es que el sistema de hashes, que ahora solo detecta imágenes pornográficas basándose en coincidencias (un hash es un valor alfanumérico único generado por un archivo; técnicamente Apple no "mira" los contenidos de las fotos per se) pueda ser utilizado para buscar otro tipo de contenidos "dañinos". Puesto que la tecnología ya está ahí, un gobierno lo suficientemente determinado no tendría muchos problemas en pedir (o exigir) a Apple que realice otro tipo de búsquedas.

El líder de WhatsApp, Will Cathcart, también expresó su preocupación poco después de conocerse la noticia, asegurando que se trata de un "sistema de vigilancia creado y operado por Apple que podría utilizarse muy fácilmente para escanear contenido privado". Según Cathcart (que tiene sus propios intereses, como debería ser obvio), el sistema de WhatsApp, que se basa en reportes de usuarios "no rompe el cifrado" y supone una alternativa aceptable, a diferencia del propuesto por Apple.

Más recientemente, Tim Sweeney ha declarado sin mencionar a Apple que "deberíamos abandonar la tentación de improvisar dictados sobre las vidas de los usuarios a través de la extraña mezcla de populismo, relaciones públicas y búsqueda de beneficios". El CEO de Epic considera que la respuesta a los problemas actuales no debería ser que "las corporaciones reinen sobre todo Internet", y que los antiguos principios de protección de las comunicaciones, creados "allá cuando el gobierno era la fuerza más poderosa en las vidas de la gente" deberían servir de guía en la actualidad.

Dicho todo esto, es importante indicar que el sistema descrito se aplica a los archivos alojados en iCloud. En el caso de las imágenes enviadas por Messages, Apple utiliza un enfoque totalmente distinto y circunscrito a las familias, sin llegar a avisar a las autoridades. En lugar de hashes, la tecnología utilizada por Apple detecta "imágenes sexualmente explícitas" (presumiblemente mediante IA), emborronándolas para evitar su visualización directa y avisando al menor que envía o recibe dicho archivo. También es posible alertar a los padres de niños de 12 años o más jóvenes para que estén al corriente de que pueden estar manteniendo conversaciones inapropiadas y/o peligrosas.

Cabe señalar que el proceso de escaneo de pornografía infantil mediante hashes no es algo totalmente nuevo. Gmail y Facebook utilizan sistemas similares, y no hace mucho el Parlamento Europeo aprobó el uso de este tipo de herramientas, aunque en este último caso son de aplicación voluntaria y su uso debe regirse por los dictámenes de las autoridades de protección de datos de cada país.
Fuente: The Verge
Sobre el autor » Alejo I

Dos décadas escribiendo sobre nuevas tecnologías y cultura popular. Si tiene luces o botones, posiblemente he hablado de ello. EOLiano Gran Reserva.

Más publicaciones de Alejo I »

Avatar de Alejo I