Passer au contenu

Un réseau taillé sur mesure

Dimensionner un réseau, c’est connaître les applications présentes et futures, les supports disponibles ; et aussi tenir compte des capacités des équipements. La synthèse de ces éléments le rendra économique et lui permettra d’offrir la qualité de service nécessaire.

Au secours, le réseau est à genoux ! Est-il pour autant sous-dimensionné ? Beaucoup de réseaux se sont construits par évolutions successives, souvent sans réelle remise en cause des hypothèses de départ et des habitudes du passé. Lorsque l’on constate des dégradations de performances, la première idée qui vient à l’esprit est le sous-dimensionnement des liaisons. On se demande, ensuite, si les matériels n’ont pas atteint leurs limites.

Le volume de la bande passante n’est pas le seul nerf de la guerre

Finalement, une étude attentive conclura souvent à un dimensionnement déséquilibré ou à une défaillance extérieure. Sur certaines liaisons, le débit maximal à l’heure de pointe ne dépassera pas 3 % de la capacité. Sur d’autres, la surcharge sera excessive, et les temps de réponse apparaîtront inacceptables.
En revanche, les problèmes dus aux réseaux peuvent effectivement provenir d’un mauvais choix des débits des liaisons, ou de bonds successifs. Il est également possible que le trafic prioritaire ait préempté l’essentiel de la ligne. Dès lors, il conviendra de se procurer des tuyaux et des robinets de la bonne taille.
Mais, il faut garder en tête que, quel que soit l’accroissement de la bande passante, sa consommation ira toujours en augmentant. De fait, lorsqu’on écoute les utilisateurs, on constate que toute la bande passante du monde ne suffira jamais à les satisfaire pleinement. En réalité, beaucoup surestiment largement leurs besoins en la matière, en particulier en confondant bande passante de crête et bande passante moyenne. De plus, les responsables d’applications considèrent que celle dont ils ont la charge est la plus importante et qu’elle mérite donc une priorité haute. Or, toutes ne peuvent évidemment pas en bénéficier. Les objectifs de qualité de service assignés à chacune d’elles constituent donc une décision essentielle à prendre et auront des conséquences importantes en termes de coûts.
Certes, il n’y a que très peu de limitation de la qualité de service lorsque la bande passante est suffisante. Cette réflexion mérite cependant d’être tempérée. En effet, même dans le cas où la bande serait infinie, on pourrait encore avoir, marginalement, une qualité de service trop faible. Des points de congestion localisés peuvent apparaître, tout comme peuvent survenir des conflits entre les flux. En moyenne, la bande passante sera satisfaisante si le réseau est, en tous points, chargé à moins de 50 %, même lors des pics de trafic. Cette valeur est, bien sûr, à moduler en fonction du protocole employé. Ainsi, la charge ne doit pas être supérieure à 30 % si l’on veut éviter les difficultés d’écoulement des communications dans les routeurs, dans le cas d’un réseau IP longue distance, sans gestion de la congestion ni de la qualité de service.
Le taux TCmax de charge peut être estimé selon le type d’équipement mis en ?”uvre. On pourra accepter jusqu’à 80 % de charge avec un réseau ATM, grâce à sa gestion intégrée de la qualité de service. La notion de charge du réseau correspond au mode de fonctionnement des équipements de transport de l’information. Inondés de trafic, ceux-ci ne travaillent plus à leur vitesse nominale, ils peinent à accomplir leur tâche et perdent des paquets, même s’ils écoulent toujours des données. En conservant les flux à un niveau inférieur aux maxima théoriques, on permet à ces équipements de tourner à plein rendement. Ces derniers auront même la possibilité d’absorber un pic de trafic impromptu. Tous les équipements de réseau ne sont cependant pas équivalents. Leurs caractéristiques de gestion du trafic et leur comportement en phase de congestion peuvent varier de façon importante.
Selon les capacités des n?”uds de réseau et le protocole employé, on pourra accepter de remplir les liens à 90 % de leur débit maximal. Parfois, il vaudra mieux se contenter d’un remplissage à 50 %. En effet, si le routeur est très ancien, on aura même du mal à dépasser les 30 % avec le protocole PPP (Point to point protocol), car, dans ce type d’architecture, on ne gère pas les congestions.

Un banal symptôme de congestion peut cacher une maladie plus grave

Le débit maximal délivrable par l’équipement avec toutes les fonctions nécessaires activées est une donnée essentielle. Il n’est pas rare qu’un routeur annonçant vingt mille paquets par seconde (implicitement, dans le meilleur des cas), ne puisse, en fait, débiter plus de mille paquets par seconde en présence de nombreux filtres et d’autres fonctions de sécurité. Cela donne, avec un paquet fixé usuellement à 64 octets, un débit maximal soutenu par ce routeur de 512 kbit/s (soit 64 octets 5 8 5 1 000). Mais, selon les fonctions de gestion des files d’attente, le fonctionnement ne sera pas forcément optimal, et il ne devra pas être chargé à plus de 30 % pour gérer de la qualité de service.
Si le nombre de files d’attente administrées est faible, il faudra baisser le taux de charge de la ligne, afin de préserver la meilleure qualité pour tous. La taille mémoire est souvent un critère utilisé. Cependant, elle dépasse aujourd’hui fréquemment les besoins, et cela, plutôt pour des raisons de marketing. En effet, il est facile de mettre 64 Mo de SDRam dans un routeur. Sur une liaison à 2 Mbit/s, une telle capacité équivaut à une file d’attente de 256 s. De quoi entamer la patience des applications… et des utilisateurs. Il est peu utile de stocker en mémoire plus de quelques centaines de millisecondes de trafic.
Les supports de transmission se caractérisent par leur débit et leur coût. Mais cela ne suffit pas. Un autre paramètre stratégique à considérer est le temps de l’aller et retour de la ligne. On voit alors qu’augmenter la bande passante ne constitue pas la panacée à tous les maux. Ainsi, les agences d’une banque régionale étaient reliées, par des liens à 64 kbit/s en Frame Relay encapsulant de l’IP et du X.25, aux sites régionaux. Ces derniers étaient raccordés au centre de calcul à 2 Mbit/s. Le temps de réponse des applications de guichet en l’occurrence, des interrogations de bases de données était supérieur à 20 s, et donc inacceptable. Un premier diagnostic a établi que le réseau était saturé.
Or, la mesure du taux de charge, dans les Frad (Frame relay access devices) donnait une valeur inférieure à 5 % ! Après une analyse plus fine, il est apparu que le temps de réponse excessif était, en fait, dû à la nouvelle application client-serveur, qui générait environ cinquante allers et retours de messages pour chaque transaction. Le temps de transit du réseau était d’environ 100 ms dans chaque sens. Ce type de retard est imputable à l’addition des divers temps de sérialisation des trames dans les équipements de transmission, et au temps de stockage dans les queues. Le temps de réponse lié à l’application était, pour sa part, de 200 ms pour chaque va-et-vient. On aboutit alors aux 20 s soit (100 ms + 100 ms + 200 ms) 5 50. Une optimisation du protocole de communication limitant les échanges à 10 par transaction a conduit à un temps de réponse acceptable de 4 s. Si l’on avait voulu corriger le problème en augmentant le débit, par exemple en choisissant une liaison satellite à 512 kbit/s, la situation aurait empiré. En effet, ces liaisons passent par des satellites en orbite géostationnaire, situés à environ 30 000 km d’altitude. L’aller et retour prend donc environ 400 ms.

Mesurer les risques pour éviter de voir trop grand ou de saturer les liaisons

Par ailleurs, pour obtenir un taux d’erreur acceptable, les liaisons utilisent souvent des codes correcteurs, qui ajoutent encore quelques dizaines de millisecondes de temps de codage. Une situation que l’on retrouve, notamment, avec l’ADSL. Cette technologie de transmission utilise des codes correcteurs d’erreurs. Ces derniers accroissent de façon non négligeable le délai, ce que l’on ne retrouve pas sur une ligne RNIS ni sur un modem RTC à 56 kbit/s. Ainsi, un aller et retour, qui prend 20 ms en RTC, est de l’ordre de la milliseconde en RNIS, mais monte à 50 ms sur une ligne ADSL.
En fonction des applications, on aboutira à un fonctionnement normal ou, pour des applications mettant en ?”uvre de nombreux échanges à base de paquets courts, à une mise en ?”uvre dégradée.
A quoi bon augmenter le débit des liaisons, si le délai de transit ou le taux d’erreur deviennent inacceptables, remettant alors en cause le fonctionnement normal.
Dans le passé, les supports avaient des caractéristiques relativement homogènes. Aujourd’hui, on dispose de supports de transmission divers, aux propriétés très différentes, dont les exploitations, en dimensionnement de réseau, peuvent également varier. Au-delà du débit du tuyau, le délai d’aller et retour, et le taux d’erreur sont donc des paramètres décisifs.
La tentation la plus courante, lors d’un projet de dimensionnement, est d’additionner l’ensemble des demandes de tous les utilisateurs et de considérer que le réseau doit être capable de les acheminer simultanément.
On risque d’aboutir à un grave surdimensionnement, souvent d’un facteur 50 ou 100. A l’heure de pointe, seuls 2 % de la bande passante seraient alors utilisés !
Tout l’art consiste à prendre en compte les différentes caractéristiques des trafics, pour prendre des risques statistiques. Dans la mesure où la plupart des flux sont très sporadiques, il est possible de faire de la surréservation, à l’instar des compagnies aériennes, qui vendent plus de sièges qu’il n’en existe dans l’avion. Sur Internet, le taux de surréservation peut monter jusqu’à dix. Sur un réseau d’entreprise, il s’établit généralement entre trois et quatre. Sans surréservation, le réseau est vraiment très mal utilisé. Dans le même temps, le risque est d’aller trop loin et de se retrouver finalement avec un réseau irrémédiablement saturé. Compte tenu de la variation statistique des flux, on risque aussi de croire que le dimensionnement est correct, les sondes donnant des valeurs de débit tout à fait acceptables. Or, sur des durées très courtes, non mesurables par les instruments habituels, il existera des pics de charge, et donc des files d’attente, des délais et des taux de perte, qui deviennent, là aussi, inacceptables pour certaines applications.

Un réseau doit toujours avoir de la capacité en réserve

Il convient donc d’identifier l’ensemble des flux susceptibles d’emprunter chaque lien, et, pour chacun, son propre taux de surréservation Ov et son débit Df, afin de déterminer une bande passante Bp utile. A cet effet, il est nécessaire d’appliquer la formule : Bp = (Somme (Df*Ov)/ TCmax. Chaque flux doit être caractérisé par son taux d’activité et par celui de rafales. Cela permet, entre autres, de savoir quelle pondération lui accorder. Il faut réaliser plusieurs dimensionnements de réseau, correspondant à divers moments de la journée.
Dans le passé, les applications étaient relativement homogènes (de type SNA). Elles comportaient des heures de pointe bien identifiées, qui se situaient aux heures de la journée où l’activité était la plus importante. Dans une banque, par exemple, elles intervenaient généralement entre 11 h et midi et entre 15 h et 16 h. Aujourd’hui viennent s’y ajoutent des pointes en début de nuit, entre 20 h et 21 h, pour des raisons de téléchargement de nouvelles versions dans les postes de travail ou d’échanges de fichiers intensifs.
Un réseau doit donc avoir de la capacité en réserve pour parvenir à la fois à absorber les évolutions du trafic et à récupérer des erreurs du type panne de ligne ou d’équipement.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Alberto Zanettin