Passer au contenu

Des serveurs proactifs de la qualité de service

Les serveurs de gestion de la qualité de service fournissent une interface conviviale à l’administrateur. Ils automatisent la configuration d’un parc entier d’équipements réseaux, afin d’en activer les mécanismes de filtrage.

Destinés à donner la priorité à certains flux ou utilisateurs, les serveurs de gestion de la qualité de service (QoS) doivent être vus comme des outils d’administration proactive. Ils s’inscrivent d’ailleurs presque toujours dans les offres de plates-formes généralistes de gestion de réseaux. Ainsi, OPS, de Nortel Networks ; Policy Xpert, de HP ; et QPM, de Cisco, font respectivement partie des gammes Optivity, OpenView et CiscoWorks 2000.

La création de règles, et leur déploiement

Ces produits offrent deux types de fonctionnalités, qui correspondent, d’une part, à la création de règles et, d’autre part, à leur déploiement.En effet, une interface utilisateur permet de définir des règles explicites. Celles-ci spécifieront essentiellement des priorités, données ou refusées selon un ensemble de critères portant sur les utilisateurs, les applications que ces derniers peuvent utiliser, ou, éventuellement, les horaires d’accès. Les entités concernées seront reconnues par leur adresse IP ou MAC (Medium access control), le plus souvent l’adresse Ethernet, qu’il s’agisse d’un poste client ou d’un serveur ; par le type de protocole de transport (TCP ou UDP) ; par le port de communication (méthode simple et efficace) ; par le champ DiffServ (spécifique à la qualité de service) ; voire par l’adresse URL demandée ou par le contenu des trames (via l’analyse d’un champ spécifique).Les règles sont stockées dans un annuaire qui, à l’exception de la solution proposée par HP, peut être choisi parmi les standards du marché. Le serveur de gestion se charge ensuite de les déployer en configurant automatiquement l’ensemble des équipements réseaux concernés. En phase de production, selon les critères spécifiés, les équipements marqueront les trames et appliqueront leurs mécanismes de filtrage tels que la classification des trames, la prévention de congestion ou la réservation de ressources.

Des promesses qui ont fait long feu

Reproduite à chaque fois que des règles ont été modifiées – en réalité, assez rarement -, cette opération de configuration reste cependant très statique. Pourtant, on nous promettait, il y a moins de deux ans, des modifications dynamiques réalisées à l’initiative des routeurs ou des commutateurs, selon le type de flux qui les traverse ou selon les utilisateurs qui lancent des requêtes. Il était également question, dans une phase ultérieure, que le serveur de règles acquière une vision topologique de l’ensemble du réseau et des flux qui le franchissent, afin de modifier dynamiquement les chemins, lorsque certains sont engorgés. Cette perspective a également fait long feu.

Les serveurs de règles resteront indispensables

Les explications de ces retards sont multiples. D’une part, l’augmentation de la taille des artères a pour l’instant écarté l’urgence de ces modifications. D’autre part, les ambitions des entreprises se limitent, aujourd’hui, à la différenciation de quelques flux applicatifs stratégiques. Même le type d’utilisateur est rarement pris en compte, pour des raisons plus organisationnelles que techniques. Autre perspective, dont la concrétisation a été repoussée : les serveurs de gestion de la QoS auraient dû voir leur rôle se transformer. En effet, c’étaient les applications qui devaient elles-mêmes marquer les trames afin de spécifier un niveau de priorité.Aujourd’hui, seuls les téléphones IP le font. Mais, demain, les éditeurs conféreront à leurs PGI (progiciels de gestion intégrés) ou à leurs outils de CRM (gestion de la relation client) la capacité d’en faire autant. En principe, ces fournisseurs devront suivre des recommandations standards qui spécifient, par exemple, que le niveau de priorité le plus élevé est réservé aux protocoles d’administration et de routage. Viennent ensuite la voix, la vidéo, puis les applications transactionnelles stratégiques. Mais ces recommandations ne seront pas toujours respectées. Les serveurs de règles resteront donc nécessaires pour contrôler ou changer les priorités.

Du réseau étendu au réseau local

Les ambitions des serveurs de gestion de la QoS se sont finalement tournées vers la couverture du réseau, qui fut longtemps pratiquement réduite aux infrastructures longue distance, donc aux routeurs. Cependant, l’émergence d’applications hautement stratégiques, comme les traitements liés aux sites marchands, ou de flux très exigeants, comme la voix ou la vidéo sur IP, ont fait naître le besoin d’appliquer des règles de QoS sur le réseau local. On retrouve alors les mêmes mécanismes de gestion de la QoS que pour les routeurs, auxquels il faut ajouter la prise en compte des VLan (Virtual LAN).C’est ainsi qu’ Avaya et HP ont étendu leurs offres à la gestion des commutateurs de niveaux 2 et 3. De son côté, Enterasys est entré sur le marché de la gestion de la qualité de service avec un produit centré sur la commutation. Cisco et Nortel Networks ont, quant à eux, lancé des produits également dédiés à la commutation, mais appelés à converger avec leurs offres originelles.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Thierry Lévy-Abégnoli