Passer au contenu

Le temps de réponse du serveur influe sur la rentabilité du site

La disponibilité du site et la vitesse de chargement des pages sont vitales. Il est nécessaire d’anticiper la progression du trafic pour éviter les pertes d’exploitation.

Une augmentation substantielle de l’audience implique en général une modification de l’architecture du site. En effet, lorsque le nombre de connexions s’accroît, le serveur qui l’héberge se trouve naturellement engorgé. Les visiteurs subissent alors des temps de réponse de plus en plus longs et ont tendance à déserter. Or, quand l’activité repose principalement sur le site web, une baisse d’audience entra”ne une perte de chiffre d’affaires importante. Le temps de réponse est donc un paramètre à surveiller de près, car il influe non seulement sur le confort du visiteur, mais aussi sur la rentabilité du service.

Un serveur unique ne suffit pas à absorber la montée en charge

Pour améliorer les temps de réponse d’un site web, deux options se présentent : augmenter la force brute ou s’attaquer à la bande passante. Le serveur est avant tout une application qui tourne sur une machine. On gagne donc en performances en accroissant la capacité mémoire et disque, le processeur et la fréquence. Pour la bande passante, les solutions les plus simples sont locales. On peut accélérer le débit de la ligne spécialisée qui dessert le serveur. Si ce dernier a du mal à suivre, il faudra répartir le site sur plusieurs serveurs et installer des répartiteurs de charge. Ceux-ci interceptent les requêtes destinées au serveur web primaire et les redirigent vers les autres serveurs du groupe. “Avec des contraintes de haute disponibilité, la meilleure solution consiste à éparpiller les serveurs et à déployer des répartiteurs de charge. Les start-up Internet que nous hébergeons demandent systématiquement ce type d’architecture”, commente Sébastien Gioria, directeur technique de FranceNet.

Des serveurs cache pour fluidifier le trafic

Si le site est largement fréquenté, on peut également faire appel à des solutions plus radicales. Une société comme Akamai, notamment, s’est spécialisée dans la fluidification du trafic pour sites très visités. Le principe est simple, il consiste à reprendre celui du proxy (serveur cache), mais à l’échelle du réseau lui-même. Akamai a mis en place 3 000 serveurs sur l’ensemble de la planète, qui servent de cache pour les données de ses clients. L’objectif est d’assurer la disponibilité permanente d’un serveur Akamai près de l’utilisateur, où qu’il soit. Il suffit de placer les éléments lourds (publicités, images, applets, animations, etc. ) sur ces serveurs cache, et de conserver uniquement la partie HTML sur le site original. De cette façon, on ne change pas l’adresse avec laquelle l’utilisateur accède au site. Simplement, les pages HTML vont chercher les éléments manquants sur le serveur Akamai le plus proche, au lieu de faire appel au serveur primaire. Le chemin est ainsi plus court et la charge est distribuée, au lieu de peser sur un serveur unique ou un petit groupe de serveurs.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


La rédaction