Imgmin applies established best practices and statistical means toautomatically optimize JPEG filesize for each unique image without sacrificing quality, resulting in significant site-wide latency reduction and bandwidth savings which improves user experience and saves money.
1. oui, de la même manière que imgmin arrive à automatiser la recherche du meilleur taux de compression global...
2. oui également, c'est la technique utilisée par http://www.jpegmini.com, juge par toi-même.
"Simplify.js is a tiny high-performance JavaScript 2D/3D polyline simplification library by Vladimir Agafonkin, extracted from Leaflet, a JS interactive maps library of the same author. It uses a combination of Douglas-Peucker and Radial Distance algorithms. Works both on browser and server platforms."
"A grunt task which takes a html file, finds all the css and js links, and outputs a version with all the css and js written inline for ease of pasting into a cms"
"At Artsy we've been building Node.js applications that share code and rendering between the server and browser. We've seen many benefits from this - pages load faster, we can optimize SEO, developers are more productive, and JavaScript coding is just an overall better experience."
Deux recherches plus approfondies sur le sujet :
http://www.iamcal.com/png-store/http://iamcal.github.com/PNGStore/
Au final, entre les problèmes de génération d'images (liés aux librairies), les problèmes d'implémentation des canvas dans les navigateurs, les limitations liées au format d'image et le peu de gain retiré face au mod_gzip, je ne suis pas convaincu que ce sera la révolution de l'année en matière de performance front...
C'est franchement de la grosse bidouille, le seul avantage que je vois c'est que ça permet de charger des JS et CSS sans les exécuter, de faire du préchargement en background pour un futur module à afficher, une popin par exemple...
Mais il existe déjà des techniques plus simples pour faire ça donc...
Compresseur, optimiseur et mise en forme de code JavaScript. C'est tout petit, efficace et basé sur NodeJS.
Il a la particularité de mieux compresser que YUI Compressor, à peine mieux que Google Closure Compiler mais en beaucoup moins de temps.
Je n'ai pas vérifié comment traire ça jQuery spécifiquement, mais le procédé est habituel. Au lieu d'enregistrer un événement pour 10 éléments dans zone géographique réduite un à un, on l'enregistrer sur le parent et c'est le javascript qui fait l'éventuelle répartition ensuite. Ça peut effectivement avoir un impact sur les performances.
Après si jQuery fait effectivement une simple boucle en interne pour enregistrer 10 fois l'évenement, ça n'amène à rien. Ce serait étrange tout de même
Au temps pour moi, en allant plus loin dans l'analyse, il semble que jQuery ne place qu'un listener sur l'élément parent, ce qui parait logique !
J'étais d'accord avec le principe, mais c'est la doc de jQuery qui m'a mis le doute.
En tout cas ça n'empêche pas que j'aimerais avoir le résultat d'un benchmark :).
"Calculate visual performance metrics from a video (Speed Index, Visual Complete, Incremental progress, etc). This is a command-line port of the WebPagetest mobile video processing and metrics code."