Skip to main content

Home/ Web Performance/ Group items tagged versionning

Rss Feed Group items tagged

Mehdi Kabab

Chrome Web Store - Page load time - 2 views

  •  
    This extension measures page load time and displays it in the toolbar. Web Timing API is used for precise measurement (Google Chrome version 6+ required).
Nicolas Hodin

JPEGmini | Photo Server - 2 views

  •  
    Perform JPEGmini processing locally on your hosts. The server software is supported for all major versions of Linux, and is optimized for high-performance, utilizing multiple cores in parallel to process millions of multi-megapixel photos per month on a single CPU.
Samuel Martin

Caching and the Google AJAX Libraries - statichtml.com - 1 views

  •  
    "10 jQuery versions loaded from Google's "
anonymous

motherjones/grunt-html-smoosher - 3 views

  •  
    "A grunt task which takes a html file, finds all the css and js links, and outputs a version with all the css and js written inline for ease of pasting into a cms"
Éric D.

Une version mobile pour les PC classiques ? - Performance web - 0 views

  •  
    ar contre je me retrouve pile dans l'usage où la performance est nécessaire, indispensable. Au milieu du CEBIT, une borne wifi est ouverte. J'en profite pour tenter d'accéder aux sites d'information français pour me tenir au courant de l'actualité (non, je ne parle pas le turque). Sauf que cette borne il y a trop de monde dessus, je la reçois mal, et pour ne rien gacher la latence entre la Turquie et la France plombe tous les échanges.
jpvincent

First Catchpoint Release for 2011 | Catchpoint Systems Blog - 3 views

  •  
    la nouvelle version de catchpoint permet entre autre d'analyser l'impact des DNS et des CDN sur les perfs
Oncle Tom

Load testing Web applications for free - 4 views

  •  
    A very smart way to use your own audience to stress test the scalability of a new and upcoming version/feature before public facing.
Laurent Paoletti

Speed and Mobility: An Approach for HTTP 2.0 to Make Mobile Apps and the Web Faster - I... - 0 views

  •  
    This week begins face to face meetings at the IETF on how to approach HTTP 2.0 and improve the Internet. How the industry moves forward together on the next version of HTTP - how every application and service on the web communicates today - can positively impact user experience, operational and environmental costs, and even the battery life of the devices you carry around.
Éric D.

Start-up : Fasterize, le régime minceur pour pages web un peu trop lourdes | ... - 2 views

  •  
    On annonce des gains au final de 30% à 60%, cela semble assez important. Est-ce vraiment intéressant dans tous les cas ?. C'est un besoin pour les sites à gros traffic/ non optimisé / avec du contenu 'peu dynamique". Comment Fasterize actualise t'il sa propre version , uniquement lorsque le client demande une url ? Il serait intéressant d'avoir un peu de détail sur l'échange entre fasterize et le serveur.
Mathieu Pillard

Script optimisation PNG - 2 views

  •  
    Le script est basique, j'ai déjà une version plus complexe gérant plusieurs formats mais je ne connaissais pas du tout (ou alors je l'ai oublié :) advdef, à tester.
  • ...6 more comments...
  •  
    Comme je suis chiant moi j'ai repassé ton image à pngnqi (http://pornel.net/pngnq, sous linux mieux vaut rester sur le pnqnq "normal", les sources sont à jours avec le pngnqi). Je suis tombé à 7397 octets (8321 octets pour l'original). C'est toujours un peu magique pour moi les outils d'optimisation d'image, très vaste comme sujet.
  •  
    pngnq il ne fait pas une quantification et donc une modification de la qualité de l'image ? Peut être que visuellement elle n'est pas impactante, mais si c'est le cas ce n'est pas un outil utilisable en automatique et d'un coup le bénéfice/cout par rapport à optipng devient assez faible
  •  
    oulà, je n'avais pas encore vu le lien, faire tourner pngcrush + optipng + advpng, ça fait lourd en cpu. Est-ce que vraiment le gain par rapport à un optipng (qui normalement fait tout ce que fait pngcrush) vaut le coup ? Quand j'avais tenté tous mes tests sur différents outils et différents paramètres, j'étais revenu à la raison : le surcout par rapport au optipng avec les options par défaut vaut rarement les différence de taille au résultat
  •  
    Pour utilise pngnq en automatique, il faut contrôler le nombre de couleurs dans l'image, car si on lui passe un png24 il en fait un png8. En gros en dessous de 2500 couleurs, on peut tranquilement passer à un png8. Bien sûr il faut faire des vérifications derrière. Trop souvent on utilise du png24 là où on devrait utiliser du png8. Png8 sait faire la transparence alpha (IE6 ne la comprends pas = pixel transparent mais pas un pâté gris comme sur le png24). Il faudra que j'expose mon programme nodejs qui fait tous ces contrôles et est paramétrable Voir http://zeroload.net/blog/zeroload%20latest%20achievements%20in%20web%20performance%20%28with%20details%29/
  •  
    Eric > Je ne comprends pas, ou plutôt je fais semblant de ne pas comprendre . Pourquoi le temps CPU pour optimiser les images est t'il si important ? Tu as déjà été confronté à des traitements supérieur à plusieurs jours (même parallélisés) ? Trois cas possible d'optimisation : 1. Optimiser par l'intégrateur (cas idéal) 2. Au moment de l'upload 3. Traitement par lot , en tâche de fond, N date / heure précise Dans le deuxième cas, mise à part des png supérieur à 3 - 4 mo, l'optimisation même maximum ne devrait pas poser de problème , si ? Dans le troisième cas, il y a toujours moyen de basculer les calculs pendant les heures creuses, voir d'utiliser temporaire des serveurs pour générer les nouveaux média (png, jpg). Une fois le média optimisé au maximum on n'y revient pas. Je dois probablement sous-estimer les temps de calculs, a t'on un ordre d'idée (Tps de calcul / Taille du png) ?
  •  
    Les temps se calculent en minutes (donc quelques heures pour traiter un lot). Ce n'est pas tant le cpu en lui même, c'est que ça peut différer une mise en production, et que toutes les boites n'ont pas une machines qui pourrait faire ça. Oui, je sais bien que trouver quelques heures de CPU devrait être ridicule, mais ça nécessite dans pas mal de boites d'allouer une machine spécifique, et ça ce n'est pas si anodin que ça (même si c'est crétin). Et oui, normalement les releases sont prévues à l'avance, surtout les éléments graphiques, mais en pratique ce n'est pas aussi bien fait et devoir lancer un traitement de quelques heures c'est ultra pénible. Mais surtout, quand la différence avec un simple optipng est de moins de 10Ko sur une page, au final ça ne vaut pas le coup de lancer une grosse automatisation et laisser l'outil sur le poste de l'intégrateur web (où le temps cpu ça compte) suffit largement.
  •  
    Pour information, lorsque j'ai du intégrer un traitement par lot, il y avait 45000 images. Donc optimiser toutes les images lors de la mise en production c'était du suicide. Dans leur cas c'était un traitement critique car en gros après traitement la page était moitié moins lourde (sachant qu'une page classique sur leur site c'était 500ko ..) Le traitement prenait environ 4 heures, sauf que, rien n'empêche de faire du différentiel, c'est ce que j'ai fais et ça va très vite à chaque mise en production il n'optimise que les nouvelles images. Bon si vous avez des millions d'images c'est autre chose, il faut une méthode plus fine.
  •  
    J'arrive après la bataille mais: Vincent: oui en fait, dans le reste de la discussion yavait mention de pngnq, j'ai juste choisi de ne parler que de ce commentaire la, parce-qu'il parlait de advdef, que je ne connaissais pas/plus. J'ai déjà eu des surprises avec pngnq, du coup je l'utilise uniquement à la mano, en vérifiant après coup la différence entre l'image d'origine et l'image optimisée (merci python + PIL) Eric: justement ce thread m'a donné envie de retester. Le temps CPU pour moi c'est peanuts, j'ai pas des millions d'images, ca prend 1 min max à chaque fois et ca peut être fait en hook post-commit sur le gestionnaire de sources.
Éric D.

Limitations du cache Safari - Performance web - 0 views

  •  
    Safari a de sérieuses limitations sur le cache. Yahoo! avait déjà débusqué les limites de la version iphone : les fichiers ne doivent pas dépasser 25 ko une fois décompressés et le total doit être strictement inférieur à 500 ko. Ces limitations semblent raisonnables pour un téléphone mais ce téléphone navigue souvent sur des sites classiques, avec une bande passante très réduite.
Éric D.

Speed Optimizing Google Analytics - localize javascript and put javascript at the botto... - 2 views

  •  
    - bien sur utiliser la version asynchrone - déplacer l'appel en bas de page (attention aux pertes de données pour les visiteurs qui cliquent vite) - mettre ga.js sur un serveur local
1 - 19 of 19
Showing 20 items per page