El compresor mozjpeg de Mozilla quiere acelerar el tráfico web reduciendo el peso de las imágenes

Ricardo Cambre
12 5 38
Noticias » Internet
Mozilla ha anunciado un nuevo proyecto llamado mozjpeg cuyo objetivo es desarrollar un compresor de imágenes JPEG mucho más eficiente y sin perder compatibilidad con la "gran mayoría" de descodificadores de este formato. Dada la explosión del uso de imágenes en la WWW, Mozilla plantea mozjpeg como una solución para hacer menos pesado el tráfico en la Red y aumentar la velocidad de acceso.

Dado que los archivos HTML, JavaScript y CSS son relativamente ligeros, las imágenes representan "la mayor parte del tráfico web al cargar una página" tal como explica la fundación en su blog. Mozilla señala que el estándar JPEG se ha convertido en el favorito de la Red dada su compatibilidad casi universal con navegadores y software de imagen: "Casi todas las fotografías en la Web se sirven como un JPEG".

Sin embargo, el formato nacido en 1992 se ha estancado en términos de eficiencia de compresión durante todo este tiempo y dada su popularidad una posible sustitución por otro formato sería una tarea ardua y a largo plazo. En vez de buscar una alternativa para el estándar JPEG, el proyecto de Mozilla ofrece una solución al maximizar la capacidad de los compresores de este formato.

Mozilla ha lanzado la versión 1.0 del proyecto mozjpeg en Github que ya reduce por término medio un 10% el peso de las imágenes que comprime. Basado en un script perl escrito por Loren Merritt denominado "jpgcrush" consigue reducir el tamaño de los archivos "averiguando qué configuración de codificación progresiva utiliza menos bits", según explica Mozilla en su mensaje.

La fundación responsable de Firefox asegura que no está al corriente de ningún otro codificador que ofrezca esta misma funcionalidad y de ahí la publicación de mozjpeg a la comunidad de programadores. El próximo objetivo del proyecto será implementar cuantificación Trellis, un algoritmo adaptivo que permite al codificador elegir qué coeficiente de compresión tiene el menor grado de error.
38 comentarios
  1. Espero que eso no implique lentitud significativa en la descompresión de imágenes, porque 10% menos de tamaño tampoco es demasiado (aunque mejor que nada, claro).
  2. JAPosti escribió:Espero que eso no implique lentitud significativa en la descompresión de imágenes, porque 10% menos de tamaño tampoco es demasiado (aunque mejor que nada, claro).


    Por lo que leo, la mejora es a nivel de elegir el método y valores exactos más óptimos a la hora de comprimir. No debería afectar a la descompresión para nada, ya que sigue siendo JPEG normal, sólo que se analiza antes qué manera de comprimir de las muchas que ofrece JPEG es la más adecuada a la imagen.
  3. Si con eso ganamos velocidad bienvenido sea :)
  4. Me encantan este tipo de noticias! :)
  5. La mayor tontada del planeta... Esto hace 10 años, era obligatorio, hoy son ganas de perder el tiempo en algo innecesario, porque...

    - Las fotos en las webs no se comprimen, es decir, que se meten a pelo desde la cámara, porque "hay ancho de banda". Si nos preocupamos en pasarlas por cualquier programa de dibujo y las reducimos, podemos pasar una foto de 1Mb a 100k. Pero hemos de hacerlo nosotros, no un navegador.

    - Lo que más ralentiza las webs hoy día, no son las fotos, son los adds y los banners de publicidad, porque habitualmente están en otro server, que puede ser lento o estar saturado, y te añade ese tiempo a la carga de tu página. Un ejemplo es lo que pasa con los contadores de google, los recopiladores de estadísiticas, y demás robots que añades a tu página. A veces, la web se pasa más tiempo cargando los banners que el contenido. Esto pasa mucho en las webs de periódicos, por ejemplo.

    Si un creador de webs, se lo curra un poco, el jpg es más que suficiente. Son ganas de reinventar la rueda y a la vez, darse un poco de bombo... Publicidad encubierta, vamos.

    Un saludo.
  6. apachusque escribió:La mayor tontada del planeta... Esto hace 10 años, era obligatorio, hoy son ganas de perder el tiempo en algo innecesario, porque...

    - Las fotos en las webs no se comprimen, es decir, que se meten a pelo desde la cámara, porque "hay ancho de banda". Si nos preocupamos en pasarlas por cualquier programa de dibujo y las reducimos, podemos pasar una foto de 1Mb a 100k. Pero hemos de hacerlo nosotros, no un navegador.

    - Lo que más ralentiza las webs hoy día, no son las fotos, son los adds y los banners de publicidad, porque habitualmente están en otro server, que puede ser lento o estar saturado, y te añade ese tiempo a la carga de tu página. Un ejemplo es lo que pasa con los contadores de google, los recopiladores de estadísiticas, y demás robots que añades a tu página. A veces, la web se pasa más tiempo cargando los banners que el contenido. Esto pasa mucho en las webs de periódicos, por ejemplo.

    Si un creador de webs, se lo curra un poco, el jpg es más que suficiente. Son ganas de reinventar la rueda y a la vez, darse un poco de bombo... Publicidad encubierta, vamos.

    Un saludo.


    Claro, las fotos no importa lo que pesen, los websites usan CDNs por deporte y porque les gusta gastar.

    El ancho de banda que estás usando para servir desde tu host hacia el cliente es ancho de banda que no puedes usar para servir a otro. Fotos más pesadas = menor concurrencia de usuarios. Por no hablar de los usuarios que acceden por 3G.

    Además, el problema que comentas de los recursos externos precisamente se debe muchas veces a que los banners pesan demasiado, que es de lo que va esto.
  7. apachusque escribió:La mayor tontada del planeta... Esto hace 10 años, era obligatorio, hoy son ganas de perder el tiempo en algo innecesario, porque...

    - Las fotos en las webs no se comprimen, es decir, que se meten a pelo desde la cámara, porque "hay ancho de banda". Si nos preocupamos en pasarlas por cualquier programa de dibujo y las reducimos, podemos pasar una foto de 1Mb a 100k. Pero hemos de hacerlo nosotros, no un navegador.

    - Lo que más ralentiza las webs hoy día, no son las fotos, son los adds y los banners de publicidad, porque habitualmente están en otro server, que puede ser lento o estar saturado, y te añade ese tiempo a la carga de tu página. Un ejemplo es lo que pasa con los contadores de google, los recopiladores de estadísiticas, y demás robots que añades a tu página. A veces, la web se pasa más tiempo cargando los banners que el contenido. Esto pasa mucho en las webs de periódicos, por ejemplo.

    Si un creador de webs, se lo curra un poco, el jpg es más que suficiente. Son ganas de reinventar la rueda y a la vez, darse un poco de bombo... Publicidad encubierta, vamos.

    Un saludo.


    Sí claro, tan tonteria que tienes una organizacion como Mozilla trabajando en ello...

    A ver, un 10% de reducción de ancho de banda es una barbaridad, para ti desde tu casa/móvil no te importa nada, pero a nivel de servidores donde el ancho de banda se paga muy caro, significa que puedes dar servicio a un 10% más de clientes con el mismo ancho de banda. Esto para un instagram, facebook, twitter, google+, periódicos online, etc es un buen avance, dado que las imágenes se postprocesan una vez subidas.

    Desde luego, a veces no parece que os deis cuenta del alcance de los avances o medidas que se proponen. Sólo lo veis desde vuestro pequeño mundo. Decir que algo es una tontería sin entender del tema es tirarse a la piscina...

    Además, los anuncios y demás los sirven terceros, así que ellos son quienes cargan con el tráfico.
  8. apachusque escribió:La mayor tontada del planeta... Esto hace 10 años, era obligatorio, hoy son ganas de perder el tiempo en algo innecesario, porque...

    - Las fotos en las webs no se comprimen, es decir, que se meten a pelo desde la cámara, porque "hay ancho de banda". Si nos preocupamos en pasarlas por cualquier programa de dibujo y las reducimos, podemos pasar una foto de 1Mb a 100k. Pero hemos de hacerlo nosotros, no un navegador.

    - Lo que más ralentiza las webs hoy día, no son las fotos, son los adds y los banners de publicidad, porque habitualmente están en otro server, que puede ser lento o estar saturado, y te añade ese tiempo a la carga de tu página. Un ejemplo es lo que pasa con los contadores de google, los recopiladores de estadísiticas, y demás robots que añades a tu página. A veces, la web se pasa más tiempo cargando los banners que el contenido. Esto pasa mucho en las webs de periódicos, por ejemplo.

    Si un creador de webs, se lo curra un poco, el jpg es más que suficiente. Son ganas de reinventar la rueda y a la vez, darse un poco de bombo... Publicidad encubierta, vamos.

    Un saludo.

    Las fotos se comprimen.
    Cuando tu subes una foto a una red social (por poner un ejemplo), es el servidor el que se encarga de recomprimirla disminuyendo su tamaño. Si con un simple script en Perl se ha conseguido reducir un 10% manteniendo la copmatibilidad, pues a mi me parece cojonudo. Párate a pensar la de imágenes que descarga tu smartphone cuando visitas webs, redes sociales, mensajería instántanea, y verás que reducir un 10% de tu tarifa de datos puede ser un gran acierto. Ahora imagínate que Facebook implementa este script, no hay nada más que añadir.

    Esto no atañe a los "creadores de webs", ya que estos ya saben a lo qué se enfrentan y llevan luchando muchos años por reducir todo el peso de la web e intentar hacer las cosas bien. A los que de verdad entienden la filosofía de la web actual (que son muy pocos desgracidamente) esto les servirá como una pequeña ayuda, nada más.

    En cambio, es algo muy a tener en cuenta de cara a la reducción de peso de carga en redes sociales, aplicaciones de lectura de RSS donde haya imágenes, etc. Vamos, que aunque no es algo que no sea novedoso, es una iniciativa que nadie ha querido llevar a cabo o que otros han fracasado y que puede servir para mucho más de lo que parece.

    ¿Publicidad encubierta de Mozilla Foundation? Les importa más bien poco la publicidad a esta gente, lo que les interesa es que otras compañías apoyen la idea y empiecen a implementar los nuevos algoritmos para reducir el tamaño de los JPG en sus aplicaciones.
  9. Ahora sólo falta enseñar a la gente a comprimir las imágenes de la forma más óptima posible, porque de nada servirá si la gente sigue haciendo esos JPG de medio mega de una imagen enana a tres colores.

    Pero a mí al menos me interesa. Aunque soy usuario de Chrome, me alegra ver que Mozilla sigue con su cuota y que tiene ideas propias en vez de dedicarse únicamente a imitar a los demás.
  10. apachusque escribió:La mayor tontada del planeta... Esto hace 10 años, era obligatorio, hoy son ganas de perder el tiempo en algo innecesario, porque...

    - Las fotos en las webs no se comprimen, es decir, que se meten a pelo desde la cámara, porque "hay ancho de banda". Si nos preocupamos en pasarlas por cualquier programa de dibujo y las reducimos, podemos pasar una foto de 1Mb a 100k. Pero hemos de hacerlo nosotros, no un navegador.

    - Lo que más ralentiza las webs hoy día, no son las fotos, son los adds y los banners de publicidad, porque habitualmente están en otro server, que puede ser lento o estar saturado, y te añade ese tiempo a la carga de tu página. Un ejemplo es lo que pasa con los contadores de google, los recopiladores de estadísiticas, y demás robots que añades a tu página. A veces, la web se pasa más tiempo cargando los banners que el contenido. Esto pasa mucho en las webs de periódicos, por ejemplo.

    Si un creador de webs, se lo curra un poco, el jpg es más que suficiente. Son ganas de reinventar la rueda y a la vez, darse un poco de bombo... Publicidad encubierta, vamos.

    Un saludo.


    como muchos compañeros comentan, parece que no has entendido mucho de la noticia.

    apachusque escribió:Las fotos en las webs no se comprimen


    el mero hecho de usar JPEG ya implica compresión y la mayoría de fotos en web son JPEG, por tanto la fotos en la web SIEMPRE se comprimen. a eso hay que añadirle las recompresiones que se dan en muchos contextos.

    apachusque escribió: Lo que más ralentiza las webs hoy día, no son las fotos, son los adds y los banners de publicidad


    los adds y banners que comentas contienen o son directamente imágenes. y en muchos casos JPEG. por lo tanto, si la velocidad queda reducida por esa causa un motivo más a favor del concepto.

    apachusque escribió:Si un creador de webs, se lo curra un poco, el jpg es más que suficiente. Son ganas de reinventar la rueda y a la vez, darse un poco de bombo... Publicidad encubierta, vamos.


    lo que explica el artículo no habla de reinventar JPEG, sino de utilizarlo de mejor forma. lo dice exactamente la noticia aquí:

    Ricardo Cambre escribió:Sin embargo, el formato nacido en 1992 se ha estancado en términos de eficiencia de compresión durante todo este tiempo y dada su popularidad una posible sustitución por otro formato sería una tarea ardua y a largo plazo. En vez de buscar una alternativa para el estándar JPEG, el proyecto de Mozilla ofrece una solución al maximizar la capacidad de los compresores de este formato.
Ver más comentarios »