Passer au contenu

InfiniBand : le haut débit pour les serveurs

Utiliser InfiniBand équivaut à remplacer un câble, reliant un serveur à un autre, par tout un réseau reliant ce même serveur à toutes les autres ressources du système d’information.

L’échange d’informations, que ce soit entre les serveurs d’une même grappe ou avec les ressources de stockage, est systématiquement freiné par la capacité des liaisons d’interconnexion (PCI entre un serveur et ses disques, Ethernet ou Gigabit Ethernet entre serveurs). Et même si l’on pouvait contourner les limites propres aux débits de ces interfaces, leur conception même resterait un frein à la montée en puissance des systèmes. PCI comme Ethernet héritent en effet d’une approche “série“, où l’on ne peut exécuter qu’une seule opération de lecture-écriture. Un véritable problème dans certaines configurations, telles que celles des fermes de serveurs web par exemple. Ce problème, la technologie InfiniBand est, en théorie, capable de le résoudre. En effet, elle adopte pour sa part une architecture parallèle point à point, qui rappelle fortement les dispositifs d’interconnexion à canaux multiples des grands systèmes (mainframes). Comme ces derniers, InfiniBand autorise le multiplexage des données, créant de cette manière jusqu’à 15 canaux virtuels sur un même port. En l’état actuel, cette technologie est censée pouvoir atteindre 6 Gbit/s. Un débit à comparer avec celui des futurs liens 10 Gigabit Ethernet, pour lesquels les constructeurs commenceront cet automne les tests intensifs.L’intérêt majeur d’InfiniBand réside cependant moins dans l’augmentation des débits que dans sa capacité à soulager les serveurs de la charge de calcul liée à l’exécution des opérations d’entrée-sortie. Avec cette interface, cette charge revient à l’adaptateur du serveur, appelé HCA (Host Channel Adapter), qui joue ici le même rôle que les piles logicielles IP et NDIS (Network Driver Interface Specification) : il ouvre la route vers le destinataire, ou TCA (Target Channel Adapter), s’occupe de transférer les données et s’assure de leur intégrité. C’est aussi lui qui assure la sécurité, ou plus exactement l’étanchéité entre les segments du réseau. InfiniBand permet de distinguer des sous-réseaux privés et publics, les uns servant à l’interconnexion d’un hôte serveur avec ses ressources de stockage, les autres à relier des serveurs entre eux. Effectuée au niveau de la couche de transport, cette fonction a le même effet que les sous-réseaux virtuels d’Ethernet : rendre invisible pour les autres la partie du réseau que l’on veut sécuriser.

Adapter le taux de transfert aux capacités réelles du lien utilisé

Autre modification radicale, celle des méthodes d’interconnexion des systèmes entre eux ou avec des ressources de stockage. Chaque hôte disposant d’un nom unique peut être relié en mode point à point par une technique de routage statique comparable à celle d’Ethernet. Les ressources de stockage, par exemple, disposent d’un nom local, instaurant une hiérarchie de noms proche de celle des domaines Windows NT. C’est le commutateur InfiniBand, ou matrice de commutation d’entrée-sortie (I/O Fabric), qui exécutera cette fonction. InfiniBand offre aussi un contrôle plus précis de la bande passante allouée à chaque transfert de données. Chacun des 15 canaux que peut gérer un port de commutateur InfiniBand peut être calibré, tout comme l’est un circuit virtuel sur un lien par relais de trame. Cette architecture autorise non seulement l’utilisation de plusieurs liens simultanément pour sécuriser ou encore augmenter la bande passante pour un transfert de données, mais elle apporte une réelle indépendance par rapport aux connexions physiques elles-mêmes. Capable de moduler son signal à un débit maximal de 2,5 Gbit/s, le protocole InfiniBand peut ainsi exploiter aussi bien des liens cuivre (Gigabit Ethernet) que fibre optique (10 Gigabit Ethernet). Doté d’une fonction d’autonégociation à l’initialisation, il est en mesure d’adapter le taux de transfert des données (chaque message InfiniBand peut contenir jusqu’à 2 Go de données) aux capacités réelles du lien utilisé. Dans la pratique, cela devrait donner rapidement naissance à une déclinaison de types de liens InfiniBand, qualifiés par leur puissance (1x, 4x, 12x).Ni concurrent du Gigabit Ethernet ou d’autres technologies telles que PCI-X, InfiniBand se présente plutôt, au bout du compte, comme une technique d’interconnexion à très haut débit et à courte distance bien adaptée aux centres de données. Ce qui ne l’empêche pas de rester ouvert à d’autres protocoles. InfiniBand est ainsi capable de transporter des paquets IP ou de s’interfacer, par le protocole SRP (SCSI RDMA Protocol), à des hôtes SCSI existants. Mais, pour autant, il n’est pas le protocole à tout faire qu’il voudrait être. C’est ainsi que tous les constructeurs conviennent qu’il est, et sera, inadapté à l’interconnexion des cartes mères dans un serveur multiprocesseur. Et, chez Dell, on souligne que contrairement à l’architecture VI (Virtual Interface) ?” d’une conception pourtant plus ancienne (elle a été développée en 1996) ?”, InfiniBand résout certes le problème de la connexion entre les serveurs, mais il n’en élimine pas pour autant tous les goulets d’étranglement.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Paul Philipon-Dollet