Passer au contenu

1. Les routeurs IP n’absorbent pas le traficDes protocoles béquilles sont en développement

Optimiser l’allocation de bande passante aide à fluidifier le trafic sur le réseau. C’est le rôle des protocoles de QoS et des algorithmes de gestion de files d’attente.

Bon gré mal gré, IP s’impose comme le protocole de transmission unique. Mais il peine à s’adapter à cette fonction de transporteur universel. Pour pallier ses carences, les tuteurs d’Internet ont développé des rustines protocolaires. Ainsi, MPLS (Multiprotocol Label Switching) enrichit la transmission IP d’un routage “déterministe “. Mais, en attendant une généralisation de cet artifice, le protocole RSVP (Ressource Reservation Protocol) pare au plus pressé. Plutôt que de se reposer sur cette seule béquille, les systèmes d’exploitation, mis en ?”uvre au sein des routeurs, usent d’autres biais, tels que la gestion des files d’attente ou encore l’allocation de bande passante en fonction de classes de services.

Une zone pour qualifier les flux transportés

Cependant, avant d’appliquer tout remède, il est indispensable de déterminer précisément la nature du trafic transporté. Cette qualification se base sur des renseignements inscrits dans l’en-tête IP, tels que l’adresse source, mais également sur des informations issues des procédures adjacentes comme TCP, UDP ou le numéro de port qui caractérise les services Internet gérés (HTTP, Notes, NFS, Telnet, etc.). Pour affiner cette qualification, le système d’exploitation du routeur peut également décortiquer le champ de données, grâce à des fonctions telles que NBAR (Network-Based Application Recognition) mise au point par Cisco. Cette investigation permet, par exemple, de classer un flux HTTP par site web, voire par URL. Une fois le trafic identifié, il convient de marquer le paquet en son sein. L’inscription de ce renseignement utilise un champ de l’en-tête IP précisément dédié à la qualification du trafic transporté. Cette zone appelée ToS (Type of Service), d’une longueur d’un octet, comporte un premier champ de 3 bits, baptisé IP Precedence, qui précise le niveau de priorité appliqué au paquet. Ce premier champ autorise de définir jusqu’à huit (23) classes de services. Vient ensuite un champ de 4 bits, dont la valeur précise le critère qualitatif de routage (temps de réponse minimal, débit ou fiabilité maximale, chemin le plus économique). Seulement voilà, la libre interprétation du champ IP Precedence faite par les vendeurs d’équipements réseau, notamment pour des besoins de contrôle interne, a contrarié la généralisation de cette zone de marquage. Pour remettre de l’ordre sur un chantier de QoS menacé d’incompatibilité, l’IETF a défini les spécifications DiffServ (Differentiated Services). En outre, ces recommandations proposent un potentiel de gestion qualitative plus large, puisqu’elles redéfinissent la zone ToS en doublant la capacité du champ IP Precedence. Ce nouveau champ, rebaptisé DSCP (DiffServ Codepoint), autorise désormais 64 (26) classes de services distinctes.Fort de ce renseignement, le routeur s’attelle alors à l’allocation de la bande passante adéquate. Il use de plusieurs mécanismes, à commencer par des algorithmes de gestion de files d’attente. Ceux-ci se répartissent en deux familles, selon leur façon d’appréhender la saturation de la bande passante. La première catégorie se réfère au champ ToS pour mieux gérer la congestion au niveau des buffers, qui constituent la zone tampon par laquelle transitent les différents flux. Elle recouvre des algorithmes tels que Priority Queuing, qui attribue les ressources de transmission en fonction du niveau de priorité. Ainsi, un e-mail sera mis en file d’attente, au profit d’un flux vidéo plus important. En revanche, une requête SQL vers une base de données bénéficiant d’une priorité plus haute sera servie en premier par rapport au téléchargement d’un fichier commandé au même moment. Les routeurs usent également du mécanisme WFQ (Weighted Fair Queuing). Celui-ci ménage les trafics prioritaires, sans négliger les flux de seconde classe, qui se voient attribuer la bande passante restante de manière équitable. Par ce biais, les flux volumineux n’accaparent pas l’ensemble des ressources. Et lorsqu’une file est congestionnée, les autres n’en sont pas affectées. La seconde catégorie d’algorithmes anticipe la congestion pour mieux l’éviter, à l’exemple de WRED (Weighted Random Early Detection). Cette technique élimine de manière préventive un quota de paquets, afin de maintenir la fluidité. Les flux non prioritaires passent les premiers à la trappe, au profit de ceux de première classe.

Un ralliement à la procédure de routage MPLS

Outre ces algorithmes de gestion des files d’attente, les équipementiers ont recours à des artifices comme la procédure de signalisation RSVP (Ressource Reservation Protocol). Celle-ci réserve un circuit de bout en bout, selon les classes de services définies précédemment, et cela sans altérer le processus de routage. Toutefois, pour prendre l’exemple du réseau routier, les voies rapides réservées aux automobiles transportant plusieurs passagers sont elles aussi soumises à une attente aléatoire. Dans l’environnement Internet, l’avantage des couloirs express ne vaut qu’une fois qu’ils sont généralisés à l’ensemble du réseau. Une entreprise pratiquement insurmontable compte tenu de l’hétérogénéité du parc d’équipements, en termes de marques et de génération. En outre, l’efficacité des couloirs réservés dépend en grande partie du bon respect du code de la route. L’IETF mise cependant sur un ralliement plus consensuel à la procédure de routage MPLS (Multiprotocol Label Switching). Ce protocole accole aux paquets IP une étiquette définissant un chemin prédéterminé LSP (Label Switch Path), en fonction des classes de services DiffServ prédéfinies.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Hafid Mahmoudi