J’abuse, il parait. Je parle de demi seconde ou même de centaines de milli-secondes. Je parle de quelques dizaines de kilo-octets là où la plupart ont des pages qui en font cinq ou dix fois plus.
Alors voilà, j’assume. Mais peut être que ça vaut le coup de rappeler trois chiffres qui permettront à chacun d’avoir des arguments quand on ne les prend pas au sérieux :
- Perdre 500ms c’est perdre 20% de trafic pour Google (ou pourquoi il n’y a que dix résultats par page dans les recherches).
- Augmenter la latence de 100ms c’est perdre 1% de ventes pour Amazon.
- Réduire de 25% le poids de la page c’est gagner 25% d’utilisateurs à moyen terme pour Google.
- Perdre 400ms c’est avoir 5 à 9% d’abandon en plus pour Yahoo! sur un site éditorial
Enfin, pour convaincre rien ne vaut une bonne citation :
Users really respond to speed.
— Marissa Mayer, Google, vice présidente de la section recherche et expérience utilisateur.
C’est bien vrai !
PS: Dommage qu’on ne puisse plus lire tes postes entiers dans les lecteurs RSS 🙁
Ca devrait être réglé, c’est probablement un effet de bord de modifications récentes. Je déteste ça quand je lis des fils d’actualité alors je ne vais pas l’imposer aux autres.
Félicitations pour votre blog, j’ai lu presque tous vos articles depuis hier et j’aime beaucoup. J’essaye d’optimiser au mieux mon site en tenant compte des conseils du groupe Yahoo! plus ceux que vous fournissez sur votre blog.
Je pense que l’aspect optimisation de l’affichage coté client n’est pas (encore) assez pris en compte par les webmasters, alors que c’est déterminant dans l’adoption d’un nouveau service/site par les utilisateurs.
Bonne continuation!
Tu abuses pour certains, moi… ça me passionne ! 🙂
Et avec les navigateurs les plus rapides de la galaxie en prime, ça dépote. J’ai pensé à toi et à mon dernier commentaire (qui n’est pas mort pour autant) en voyant un de ces mêmes liens parlant de Google Maps 😉
Mais non, il est très bien ce blog, et surtout il est d’utilité publique. Je le recommande à tous mes amis. Avec 8 vitamines et du fer !
More !
Idem, j’apprécie beaucoup ce blog, l’un des seuls qui soit concret dans l’optimisation. Chose que je trouve super important également. J’ai notamment mis les pubs sur mes sites en bas de page, puis déplacer la pub au bon endroit après le chargement, la vitesse d’affichage du contenu est nettement plus rapide. (cf article sur le chargement de fichier Javascript).
Enorme… Les humains doivent vraiment avoir un cerveau très spécial pour qu’à 500 ms près il y’a 20% en plus d’impatients/paresseux du clic
C’est surtout que à 500ms on a l’impression d’attendre. On va donc réfléchir à deux fois avant de faire une action ou d’aller sur le site car « on va attendre ». Et si un concurrent n’a pas ces 100 ou 500ms, on ira chez le concurrent même s’il est un peu moins bien.
Après oui, dans l’absolu 500ms c’est rien, mais ce qui est important ce n’est pas le chiffre réel, mais le ressenti de l’utilisateur par rapport à ce chiffre.
Grosso modo les valeurs habituelles c’est :
– <100ms : quasiment instanée, l’utilisateur a l’impression que la machine réagit immédiatement
– < 1s (certains placent la barre plus bas) : l'utilisateur perçoit le délai et sait qu'il se passe quelque chose - > 1s : l’utilisateur « attend »
Ces chiffres parlent de la page complète. Ca comprend le temps de génération sur le serveur mais aussi les aller-retour réseau, l’exécution du javascript, les téléchargements des composants js/css joints, le rendu de tout ça par le navigateur et l’affichage des images.
Autant je suis convaincu de l’intérêt d’optimiser les temps de chargement et la réactivité des sites, autant l’argument de Marissa Mayer me semble très léger. Comme le dit très bien un commentateur à la suite du billet que tu indiques:
«Three major variables changed (speed, and number of results, ratio of ads to search results), not to mention the layout of the page grew to three times the length and she only focusses on the speed as the reason?»
L’analyse mériterait d’être plus fine. Un des éléments de l’insatisfaction des utilisateurs avec des pages de 30 résultats (plutôt que 10 par défaut) vient peut-être plus de l’effet «Too Much Information» que de la demi-seconde d’attente. Même si les utilisateurs demandent plus de résultats, il n’est pas sûr qu’ils trouvent l’utilisation du site plus confortable avec 30 résultats au lieu de 10, même à temps de chargement égal. Comprendre les utilisateurs, ça n’est pas forcément appliquer ce qu’ils disent à la lettre.
Moi je demande 100 résultats à Google! ça m’évite 9 clics et je me donne plus de chance de trouver ce que je cherche – faut aimer lire en diagonale. Encore faut-il utiliser google pour ce qu’il est! c’est à dire un moteur, pas un répertoire (avez-vous vu le top10 des mots clé 2008: Youtube, Facebook, ebay, Orange, pages jaunes…). Non mais on rêve! Pour ce genre d’utilisateurs oui peut-être qu’il veulent plus de rapidité pour pallier leur incompétence, quelle ironie!. Internet ne doit pas se plier au diktact des imbéciles non-plus sinon ça deviendra comme la télé! Un répértoire d’anneries.
Heureusemnt ya des sites comme celui-ci. lol
Toujours en retard mais je met mon grain de sel quand même !!!!
Dans une autre mesure, comme dans mon cas si on utilise de gros framework PHP avec tout ce que ça implique, on est franchement content de pouvoir gagner 5% par ci 10% par là…
Nos clients nous demande souvent de l’instantané sans tunnel de chargement ( = la page de chargement au début du site ). Et je trouve que entre 500ms / et <100ms il y à vraiment une énorme différence de rendu.
L’instantané oui, mais si tu mesures uniquement ton PHP, tu ne mesures pas ce que voit l’utilisateur. L’utilisateur n’en a rien à faire que « PHP » soit instantané. Il veut que « la page » (images, css et js compris) soit instantanée.
Si tu gagnes 400ms (différence entre 500 et 100ms) sur la page HTML et que ça représente 10%, ça veut dire que ta page HTML mettait 4 secondes à se charger, hors images, CSS et javascript. Je n’ose y croire. si c’était le cas tu as raison de travailler sur PHP, mais si c’était le cas le site n’aurait même jamais du passer en production à la base.
Plus probablement ta page HTML met entre 100ms et 1,5 secondes (ce qui est déjà énorme). Gagner 10% c’est gagner 100ms. C’est bien, pertinent, mais ça te demandera un gros effort.
Si tu bosses sur l’aspect frontend, sur une page qui met entre 3 et 10 secondes côté client en comptant images, css et javascript, gagner 10% c’est gagner 750ms.
Entre 100ms et 750ms, mon choix est vite fait.