Performances, un sujet pas si récent que ça

On entend sérieusement parler des performances des sites web depuis quoi, un an ? deux ans pour les plus débrouillards ?

Pourtant j’ai remonté les archives pour vous. Histoire de prendre une figure connue j’ai pris Jakob Nielsen. Jakob est peut être le dinosaure de l’utilisabilité (ou usabilité, je vous laisse choisir votre terme). Il a ses détracteurs, ses défauts, mais il a le mérite de publier depuis plus de dix ans, et de garder une constance impressionnante dans ses préoccupations.

Dès 1996

Voilà, j’ai retrouvé une AlertBox de mai 1996 : les 10 plus grandes erreurs de design web. En dixième position on retrouve la question des temps de (télé)chargement :

I am placing this issue last because most people already know about it; not because it is the least important. Traditional human factors guidelines indicate 10 seconds as the maximum response time before users lose interest. On the web, users have been trained to endure so much suffering that it may be acceptable to increase this limit to 15 seconds for a few pages.

Even websites with high-end users need to consider download times: many B2B customers access websites from home computers in the evening because they are too busy to surf the Web during working hours.

Et par la suite

Avec l’augmentation des bandes passantes, de la puissance des machines, et la maturité du développement web on aurait pu s’attendre à ce que ça change. Mais non, on remet ça en 97, 99, 2000, 2004. En 1997 on a même la déclaration suivante :

Slow response times are the worst offender against Web usability: in my survey of the original « top-ten » mistakes, major sites had a truly horrifying 84% violation score with respect to the response time rule.

Bloated graphic design was the original offender in the response time area. Some sites still have too many graphics or too big graphics; or they use applets where plain or Dynamic HTML would have done the trick. So I am not giving up my crusade to minimize download times.

The growth in web-based applications, e-commerce, and personalization often means that each page view must be computed on the fly. As a result, the experienced delay in loading the page is determined not simply by the download delay (bad as it is) but also by the server performance. Sometimes building a page also involves connections to back-end mainframes or database servers, slowing down the process even further.

Users don’t care why response times are slow. All they know is that the site doesn’t offer good service: slow response times often translate directly into a reduced level of trust and they always cause a loss of traffic as users take their business elsewhere. So invest in a fast server and get a performance expert to review your system architecture and code quality to optimize response times.

Bref, rien de neuf sous le soleil, bien au contraire.

Et maintenant ?

Étonnament même maintenant, on trouve encore des sites qui prennent 10 secondes pour se charger. Test fait, je tiens d’ailleurs à présenter mes excuses à France Telecom que je souhaitais prendre en exemple dans ce paragraphe. Charger leur page d’accueil ne prend que 9,1 secondes (je n’ai pas trouvé de balise HTML pour marquer l’ironie teintée de provocation, j’ai utilisé l’italique et j’espère que toi aussi tu m’en pardonneras, bien heureux lecteur).

Encore maintenant ce sont les pages mal architecturées et l’indigestion de bidules inutiles qui sont la principale cause du problème. Encore maintenant, si on en croit Amazon, la lenteur a une réelle influence sur l’utilisateur.

Oh, on a fait du chemin. On en est à parler en général de 2 à 5 secondes au lieu de 10 à 15. Mais entre temps nos machines sont 20 fois plus puissantes, notre bande pasante est de 100 à 1000 fois plus importante qu’à l’époque, notre latence est souvent moitié plus faible elle aussi. Bref, il a vraiment fallu jouer aux idiots pour obtenir de si mauvais résultats. Oui je sais, je me répète, mais sur ce sujet trop vaut mieux que pas assez.

On parlait de 10 et 15 secondes mais c’est à une époque où le simple fait de se connecter était une réussite en soi. Désormais c’est l’usage courant et les attentes sont donc différentes. Demain il est peu probable que les gens accepteront d’attendre plus longtemps que quand ils zappent sur la télévision.

Il faut viser moins d’une seconde. Au delà de deux vous avez un problème, au delà de trois ce doit être une de vos priorités.

Publié par edaspet

Plus d'informations sur mon profil en ligne

5 réponses sur « Performances, un sujet pas si récent que ça »

  1. C’est un problème récurrent de l’informatique. Tu ouvres les vannes sur un ancien goulot d’étranglement et tout le monde va en profiter. Puis quand cette ressource sera à nouveau un goulot, tout le monde (enfin on espère) se rend compte qu’il faut un peu y faire attention.

  2. Ce qui est nouveau je trouve, c’est qu’on parle de vitesse ressentie par le client.
    Et on innove de la même façon pour les applications standards, par exemple sur l’iphone : http://www.blogiphone.fr/2008/10/09/pourquoi-le-demarrage-des-applis-apple-est-si-rapide/

    Même si la page de France Telecom se charge lentement, elle commence à s’afficher rapidement. (on peut tester avec AOL page test http://pagetest.sourceforge.net/ et prendre en compte « Start Render »).

  3. Je pense que le grand secoueur de cocotier sur le sujet des performance a été Yahoo! avec la sortie de leur yslow (qui permet de calculer) et de leurs « règles » claires et précises.

    Je me rappelle de l’époque ou on découpait une grosse images en petits bouts pour que ca s’affiche « plus rapidement » 🙂

    En tout cas l’essentiel est la perception de rapidité, pas la rapidité elle-même. Même si des fois, ça se rapporche très fort.

  4. Pour ma part j’ai toujours entendu parler de performance, que ce soit dans la taille des images et la taille des pages, maintenant dans l’architecture.

    C’est même vrai en informatique, Steve Jobs a, parait il, tanné ses ingénieurs pour gagner une seconde au démarrage des premiers macs en argumentant qu’il faisait gagner des années en comptant la totalité des utilisateurs.

    Il est vrai qu’aujourd’hui on peut mieux quantifier la conséquence d’une ou deux secondes.

  5. Bien sûr que le sujet est ancien, et pour cause ! Avec un modem 56k, les contraintes au niveau du poids et de la structure des pages était bien plus prononcées que maintenant.

    Ce qui est récent finalement, c’est une analyse scientifique des tenants et aboutissants. C’est Yahoo qui a ouvert la voie avec son étude à grande échelle, et les 10 premières règles qui ont suivi.

    Dans un registre plus personnel, je suis content de pouvoir dire que je respecte ta conclusion à la lettre ! :^)

Les commentaires sont fermés.