Skip to main content

Home/ Web Performance/ Group items tagged post

Rss Feed Group items tagged

mesbah095

Guest Post Online - 0 views

  •  
    Article Writing & Guestpost You Can Join this Site for Your Article & guest post, Just Easy way to join this site & total free Article site. This site article post to totally free Way. Guest Post & Article Post live to Life time only for Current & this time new User. http://guestpostonline.com
anonymous

Deploying JavaScript Applications - Alex Sexton - 1 views

  •  
    Deploying JavaScript Applications Preface: Nothing in this post is necessarily new, or even anything I thought of first (save for a name or two). via Pocket
Mathieu Pillard

Script optimisation PNG - 2 views

  •  
    Le script est basique, j'ai déjà une version plus complexe gérant plusieurs formats mais je ne connaissais pas du tout (ou alors je l'ai oublié :) advdef, à tester.
  • ...6 more comments...
  •  
    Comme je suis chiant moi j'ai repassé ton image à pngnqi (http://pornel.net/pngnq, sous linux mieux vaut rester sur le pnqnq "normal", les sources sont à jours avec le pngnqi). Je suis tombé à 7397 octets (8321 octets pour l'original). C'est toujours un peu magique pour moi les outils d'optimisation d'image, très vaste comme sujet.
  •  
    pngnq il ne fait pas une quantification et donc une modification de la qualité de l'image ? Peut être que visuellement elle n'est pas impactante, mais si c'est le cas ce n'est pas un outil utilisable en automatique et d'un coup le bénéfice/cout par rapport à optipng devient assez faible
  •  
    oulà, je n'avais pas encore vu le lien, faire tourner pngcrush + optipng + advpng, ça fait lourd en cpu. Est-ce que vraiment le gain par rapport à un optipng (qui normalement fait tout ce que fait pngcrush) vaut le coup ? Quand j'avais tenté tous mes tests sur différents outils et différents paramètres, j'étais revenu à la raison : le surcout par rapport au optipng avec les options par défaut vaut rarement les différence de taille au résultat
  •  
    Pour utilise pngnq en automatique, il faut contrôler le nombre de couleurs dans l'image, car si on lui passe un png24 il en fait un png8. En gros en dessous de 2500 couleurs, on peut tranquilement passer à un png8. Bien sûr il faut faire des vérifications derrière. Trop souvent on utilise du png24 là où on devrait utiliser du png8. Png8 sait faire la transparence alpha (IE6 ne la comprends pas = pixel transparent mais pas un pâté gris comme sur le png24). Il faudra que j'expose mon programme nodejs qui fait tous ces contrôles et est paramétrable Voir http://zeroload.net/blog/zeroload%20latest%20achievements%20in%20web%20performance%20%28with%20details%29/
  •  
    Eric > Je ne comprends pas, ou plutôt je fais semblant de ne pas comprendre . Pourquoi le temps CPU pour optimiser les images est t'il si important ? Tu as déjà été confronté à des traitements supérieur à plusieurs jours (même parallélisés) ? Trois cas possible d'optimisation : 1. Optimiser par l'intégrateur (cas idéal) 2. Au moment de l'upload 3. Traitement par lot , en tâche de fond, N date / heure précise Dans le deuxième cas, mise à part des png supérieur à 3 - 4 mo, l'optimisation même maximum ne devrait pas poser de problème , si ? Dans le troisième cas, il y a toujours moyen de basculer les calculs pendant les heures creuses, voir d'utiliser temporaire des serveurs pour générer les nouveaux média (png, jpg). Une fois le média optimisé au maximum on n'y revient pas. Je dois probablement sous-estimer les temps de calculs, a t'on un ordre d'idée (Tps de calcul / Taille du png) ?
  •  
    Les temps se calculent en minutes (donc quelques heures pour traiter un lot). Ce n'est pas tant le cpu en lui même, c'est que ça peut différer une mise en production, et que toutes les boites n'ont pas une machines qui pourrait faire ça. Oui, je sais bien que trouver quelques heures de CPU devrait être ridicule, mais ça nécessite dans pas mal de boites d'allouer une machine spécifique, et ça ce n'est pas si anodin que ça (même si c'est crétin). Et oui, normalement les releases sont prévues à l'avance, surtout les éléments graphiques, mais en pratique ce n'est pas aussi bien fait et devoir lancer un traitement de quelques heures c'est ultra pénible. Mais surtout, quand la différence avec un simple optipng est de moins de 10Ko sur une page, au final ça ne vaut pas le coup de lancer une grosse automatisation et laisser l'outil sur le poste de l'intégrateur web (où le temps cpu ça compte) suffit largement.
  •  
    Pour information, lorsque j'ai du intégrer un traitement par lot, il y avait 45000 images. Donc optimiser toutes les images lors de la mise en production c'était du suicide. Dans leur cas c'était un traitement critique car en gros après traitement la page était moitié moins lourde (sachant qu'une page classique sur leur site c'était 500ko ..) Le traitement prenait environ 4 heures, sauf que, rien n'empêche de faire du différentiel, c'est ce que j'ai fais et ça va très vite à chaque mise en production il n'optimise que les nouvelles images. Bon si vous avez des millions d'images c'est autre chose, il faut une méthode plus fine.
  •  
    J'arrive après la bataille mais: Vincent: oui en fait, dans le reste de la discussion yavait mention de pngnq, j'ai juste choisi de ne parler que de ce commentaire la, parce-qu'il parlait de advdef, que je ne connaissais pas/plus. J'ai déjà eu des surprises avec pngnq, du coup je l'utilise uniquement à la mano, en vérifiant après coup la différence entre l'image d'origine et l'image optimisée (merci python + PIL) Eric: justement ce thread m'a donné envie de retester. Le temps CPU pour moi c'est peanuts, j'ai pas des millions d'images, ca prend 1 min max à chaque fois et ca peut être fait en hook post-commit sur le gestionnaire de sources.
Laurent Paoletti

Performance As Design - 0 views

  •  
    Too often, any talk of web performance quickly ventures into the land of heavy geekery. Terms like DNS lookups, Gzipping, minifying, far future expires headers, caching, ETags and more are thrown around and consequently lose the attention of most non-techy people.
anonymous

"reducing number of requests on a page [not] always makes that page faster" - 1 views

  •  
    "combining can sometimes make loads slower, due to deferral of JS execution (have to download entire combined JS file before any of the JS can be executed). A second reason is that combining can make the resources take longer to download, due to the way that TCP slow start works"
Laurent Paoletti

Lazy loading below the fold - 6 views

  •  
    I've started experimenting with my home page to make it load even faster. Amazon famously does this too which you can read more about in this Steve Souders post. They make sure everything that needs to be visible above the fold is loaded first, then, it starts loading all the other "stuff" below the fold.
  •  
    Assez d'accord avec les commentaires , il faut éviter que le crawler passe sur la ressource dédiée au chargement des huits autres articles, sinon il y a un risque de duplicate content. Pour éviter cela il faut gérer des règles pour robots.txt, est-ce suffisant ? Le découpage je le fais plutôt au niveau du styling CSS et JS. J'inclue le style css indispensable à l'affichage et charge le reste . Bref il y aussi le risque de reflow dans ce cas.
  •  
    Indian Cheap Escort In Dubai Model Cheap Escort In Dubai Massage Cheap Escort In Dubai Call Girls Cheap Escort In Dubai Vip Cheap Escort In Dubai Desi Indian Escort In Dubai Desi Pakistani Escort In Dubai Desi Call Girls Escort In Dubai Desi Punjabi Escort In Dubai
Frank Taillandier

Welcome YSlow Open Source - 3 views

  •  
    Yslow devient opensource et le code est dispo sur Github, je découvre au passage une utilisation possible en ligne de commande avec node.js
Samuel Martin

Comparatif web performance des candidats 2012 - les images - Creaone.fr - 2 views

  •  
    ImagePicker et ImageOptim sont présentés ; pour récupérer et optimiser les images.
Laurent Paoletti

Cache compressed? or uncompressed? | High Performance Web Sites - 1 views

  •  
    My previous blog post, Cache them if you can, suggests that current cache sizes are too small - especially on mobile. Given this concern about cache size a relevant question is: If a response is compressed, does the browser save it compressed or uncompressed? Compression typically reduces responses by 70%.
Oncle Tom

Why node.js streams are awesome - 4 views

  •  
    Où comment la manière de servir des fichiers change l'expérience utilisateur. Quand la mécanique influe sur l'aspect pratique.
  •  
    Intéressant mais rien de vraiment nouveau... les Streams, ça existe depuis Java 1.0 (1996), et sans doute avant dans d'autres langages. Tant mieux si ça arrive dans node.js !
Delphine M.

La checklist performance Opquast (Webperf) est ouverte à commentaires publics... - 3 views

  •  
    "Vous êtes donc les bienvenus pour critiquer, compléter ou amender la future check-list Opquast Webperf."
Laurent Paoletti

15 things you can (and should) do to make your site faster for mobile users - 1 views

  •  
    August is Speed Awareness Month, and performance experts throughout our community are contributing their perspectives. My post about must-have mobile optimization techniques just went live. Here's the intro... As you probably know, mobile users face unique performance challenges when it comes to implementing the strategies above.
anonymous

Faut-il limiter le nombre de Media Queries ? (Sass and Media Queries) - 0 views

  •  
    "Does combining the media queries have any actual performance improvements? Are people simply raising issue because they don't like the way the output CSS looks? That's a damn good question and one that Aaron also raised. As he put it, "Let's ask science!""
1 - 20 of 60 Next › Last »
Showing 20 items per page