Passer au contenu

Toujours plus vite et 24 h/24

La première problématique d’un responsable de site est d’assurer un service continu. La seconde consiste à ne pas décourager ses visiteurs par des délais d’attente excessifs. Les outils de répartition de charge apportent une solution en optimisant les temps de réponse et en intégrant des fonctions de tolérance aux pannes.

Internet fait désormais partie des canaux de distribution de l’entreprise : achat et vente de produits, support au consommateur ou encore accès pour personnel mobile. La concurrence y est rude pour acquérir des parts de marché, dont la particularité est qu’elles sont très volatiles : pour une raison ou une autre, d’un clic de souris, l’internaute bascule chez le concurrent. Les coûts en publicité et autres moyens pour attirer et fidéliser le consommateur s’avérant exorbitants, perdre un client parce que le serveur est tombé en panne, rendant temporairement le site indisponible, constitue une erreur qui peut se chiffrer par des pertes considérables. Le perdre parce qu’il a attendu une page trop longtemps ne représente pas une meilleure perspective.

la qualité de service devient indispensable

Aujourd’hui, les sites Web se construisent autour de la qualité du service apportée au client. Et les outils de répartition de charge en sont la pierre angulaire. Ils garantissent en effet une prestation sans discontinuité et des délais d’attente optimisés en répartissant les requêtes entre plusieurs serveurs. Deux peuvent suffire, mais pour encaisser des charges de trafic importantes, le nombre de serveurs Web doit être calculé en conséquence, certains sites disposant de batteries d’une quarantaine de machines et plus. Quelle que soit la configuration retenue, cette architecture reste transparente pour l’utilisateur : il ne saisit pas l’adresse du serveur le plus apte à le diriger, mais le nom de domaine de la société derrière lequel sont masqués les différents serveurs. Ces derniers doivent donc répondre au même nom de domaine, indépendamment de leur localisation géographique et de leurs adresses IP forcément différentes. C’est encore une des fonctions des outils de répartition de charge qui masquent les serveurs derrière une adresse IP virtuelle, laquelle répond à l’adresse du site. Ils réceptionnent ainsi toutes les requêtes puis les redistribuent sans que l’utilisateur s’aperçoive du “subterfuge”. Un bon travail d’administration devient alors crucial pour le succès technique d’un site Web.

La tolérance aux pannes prévient l’indisponibilité du site

Le zéro défaut n’existe pas, souligne Rémi Poulet, directeur technique de Voila, filiale de France Télécom. Nous sommes complètement agnostiques en matière de système d’exploitation et de serveur Web, ce qui ne nous rend pas plus ou moins vulnérable : quels que soient l’outil utilisé et les moyens mis en ?”uvre, nous ne sommes jamais à l’abri d’une panne. ‘ Et qui dit panne, dit site inaccessible. Le temps nécessaire pour identifier la cause, réparer l’erreur et remettre en route les services s’avère plus ou moins long selon la nature de la panne. Dans tous les cas de figure, ce dysfonctionnement porte atteinte à l’image de la société, quand il ne pèse pas sur le chiffre d’affaires. Si la panne ne peut être systématiquement évitée, en revanche, l’indisponibilité du site peut l’être en utilisant des outils de répartition de charge. Le mécanisme est simple : le contenu d’un site est répliqué sur deux serveurs placés derrière un commutateur de répartition. Si l’une des machines tombe en panne, le trafic est aussitôt basculé automatiquement vers la seconde. Celle-ci desservira toutes les requêtes pendant le laps de temps nécessaire à la réparation du premier serveur. Le commutateur continuera à tester régulièrement le serveur défaillant et, dès qu’il sera remis en route, partagera de nouveau le trafic entre les deux machines. L’incident et la reprise du service seront donc passés inaperçus pour l’internaute.

Éviter les files d’attente

Au-delà de la tolérance aux pannes, les outils de répartition de charge garantissent également des temps de réponse plus courts. En effet, ce n’est plus un mais plusieurs serveurs qui desservent le trafic. Bâtis selon un modèle serveur maître et serveur esclave, les premiers outils de répartition de charge orientaient les requêtes vers le second serveur, uniquement lorsque le premier était arrivé à saturation. Ceux de nouvelle génération procèdent autrement. Tous les serveurs placés derrière le commutateur sont sur un pied d’égalité, seule leur disponibilité entre en ligne de compte lorsque le commutateur prend la décision d’orienter la requête vers l’un plutôt que vers l’autre. La finesse d’analyse des commutateurs Web permet même de tenir compte, outre la charge CPU de la machine, du nombre de personnes déjà connectées à une URL. À charge CPU égale, la répartition s’effectuera donc sur l’URL la plus disponible.

Répartition de charge matérielle ou logicielle ?

Si la majorité des outils de répartition de charge sont des équipements isolés et dédiés à cette seule tâche, certains commutateurs cumulent les fonctions de routage, le contrôle d’accès aux ports, la gestion des autorisations… à la répartition. De même, il existe des solutions logicielles de répartition qui s’installent sur des serveurs, tel e.Network Dispatcher d’IBM. Globalement, les experts estiment que l’accumulation de fonctions risque de provoquer le résultat inverse à l’effet escompté : surchargé par les traitements, le commutateur peut en effet devenir un goulet d’étranglement alors qu’il est censé accélérer les traitements. Économique lorsqu’il faut monter en charge – il suffit alors d’ajouter de la mémoire au serveur -, l’alternative logicielle présente de sérieux inconvénients liés, notamment, à la présence d’un système d’exploitation qu’il faut administrer (en plus des fonctions de répartition de charge) et dont les brèches de sécurité sont plus importantes que sur un boîtier dédié. Sans compter que le système d’exploitation entame les ressources du serveur par des accès système et ralentit donc les fonctions de répartition de charge. Résultat, le marché s’oriente aujourd’hui majoritairement vers des boîtiers dédiés, à l’exception de Cisco qui a annoncé l’intégration de la technologie ArrowPoint à sa gamme Catalyst. Reste à attendre les premiers produits issus de cette fusion pour juger des performances.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


La rédaction