Passer au contenu

L’efficacité d’un site, enjeu de notoriété et de survie

Rapidité, fiabilité… Des entreprises testent la qualité des prestations internet des sites marchands et évaluent leur image. Histoire d’agir avant que les clients et les investisseurs ne jettent l’éponge.

Plus de 25 milliards de dollars (29,6 milliards d’euros) de transactions seront perdus cette année par les sites de commerce électronique américains à cause de leurs mauvaises performances, dont 21 milliards du fait d’un mauvais délai d’affichage. C’est la conclusion d’une récente étude menée par le cabinet Zona Research, l’inventeur, en 1999, de la désormais célèbre ” règle des huit secondes “, temps au-delà duquel l’internaute devient ” volatil “. Aujourd’hui, Zona Research relativise quelque peu cette règle en faisant intervenir d’autres données essentielles, comme la patience propre à chaque internaute ou l’importance portée au site visité. Dans Performance on the Edge, Jupiter Research soutient de son côté que le temps de référence déterminant la tolérance des internautes est défini par le site le plus rapide de sa catégorie. “ La qualité de service doit être perçue comme un enjeu économique, et pas uniquement technique“, rappelle finalement son analyste Peter Christy.

Simuler un pic de connexion

Pour assurer la meilleure qualité de service internet, des entreprises proposent de mesurer deux types de performances : la qualité du réseau (du temps de téléchargement au taux de transfert maximum en passant par le taux de réussite d’accès au service) et la qualité des applications (rapidité de l’affichage, fiabilité d’une procédure de paiement en ligne, etc.). Ces mesures sont généralement opérées à partir d’automates d’appels, répartis à travers les principaux réseaux internet, pour simuler des connexions d’internautes et assurer un monitoring (surveillance et analyse graphique sur écran) des temps d’accès et de chargement des pages web : serveurs DNS, session TCP, attente du premier octet, objets, etc. Ce service est complété par des tests de montée en charge progressifs permettant de fixer le seuil de congestion de l’accès au site web en prévision de conditions critiques : opérations marketing, pics d’activité saisonniers, etc. Un service également indispensable avant une première mise en production afin d’éviter que le site web ne se retrouve saturé dès les premiers jours de sa promotion, risquant ainsi de ternir son image et de compromettre ses ventes à venir.Des acteurs tels que l’Américain Keynote, ou les Français IP-Label et Qualiope, ont ainsi commencé à déployer leurs serveurs de mesures dans le monde entier. Les deux premiers ont développé leurs propres logiciels de mesure, Qualiope utilisant partiellement la solution d’un autre leader, l’Américain Mercury Interactive. De son côté, la jeune pousse Witbe entend construire son propre backbone de mesures externes, évitant de telles dépenses d’infrastructures. Enfin, Itipi vient brouiller les cartes en constituant un panel d’internautes-testeurs capables de mesurer simultanément les performances d’un site web, remettant en cause l’utilisation même de robots.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


BM