Passer au contenu

Satisfaire le besoin de capacité et de débit

L’évolution des capacités de stockage et des débits d’entrée/sortie répondra à la demande dans les prochaines années.

Depuis deux ans, les besoins des entreprises ont été multipliés par deux à quatre”, estime Michel Alliel, directeur marketing chez HDS. Et cette évolution va se poursuivre. Pourtant, les fournisseurs se déclarent prêts à suivre la demande, tant en termes de capacité que de performances. Pleinement justifié, cet optimisme concerne toute la chaîne – disques, baies, contrôleurs, réseaux et interfaces des serveurs.Ainsi, les briques de base que sont les disques franchiront allègrement le mur des 100 Go dans les prochains mois. Mais l’offre confirmera sa scission en deux types de produits. Les uns affichent une capacité élevée et des temps d’accès pénalisés par une faible vitesse de rotation. Les autres, tournant à 12 000 ou 15 000 tours par seconde, sont très performants, mais ils ne stockent pas plus de 40 Go.Les cibles sont différentes – serveurs de gros fichiers pour les premiers, applications transactionnelles pour les seconds. Côté interfaces de disques, on constate – du moins, hors du marché des PC – une adoption massive de la norme Fibre Channel à 1 Gbit/s, dont les débits seront absorbés par des mémoires tampon de plus en plus importantes.Les disques sont montés en batterie à l’intérieur de baies. Et, là, les constructeurs se rangent dans deux écoles différentes. Sans en faire une religion, HDS, EMC ou IBM défendent plutôt des baies de grande capacité et dotées d’une forte intelligence, qui permettent, par exemple, de déplacer les fichiers d’un type de disque vers un autre.Cela au gré de l’évolution des besoins applicatifs. Les autres, tel Sun, pensent que cette intelligence doit être répartie sur le SAN (Storage Area Networks). Le problème, c’est que les normes ne le permettent pas encore complètement.

Le SAN optimise l’usage des capacités et répartit les flux

Quelle que soit la formule gagnante, un consensus se fait jour sur la nécessité d’une distribution physique minimale, qui permette notamment d’améliorer l’évolutivité et de répartir les flux sur le réseau. En effet, centralisées ou distribuées, intelligentes ou passives, les baies ont pour vocation de se connecter à des réseaux afin d’alimenter les systèmes en ressources de stockage.Cette architecture permet d’optimiser l’utilisation des espaces disques, alloués à la demande aux systèmes qui en ont besoin. Quant aux performances, elles dépendent fortement du type de réseau. Au mieux, celui d’un serveur NAS est une épine dorsale de type Ethernet commuté à 1 Gbit/s, dont le rendement n’excède pas 30 %.Promue par IBM, l’architecture de type iSCSI (SCSI sur IP) fait mieux, sans toutefois atteindre l’efficacité des SAN. Ces topologies ne représenteront donc qu’une étape avant le déploiement de ces derniers, qui sous-tendent des réseaux basés sur la norme Fibre Channel, dont la capacité de débit est identique à celle de l’Ethernet à 1 Gbit, mais avec un rendement de 70 %.De plus, dès l’été prochain, le débit des commutateurs passera à 2 Gbit/s – un cap déjà atteint par les cartes adaptateurs des serveurs. Mais cette évolution n’est pas encore essentielle, car, depuis qu’ils ont supplanté les concentrateurs, les commutateurs restent sous-utilisés par les serveurs.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Thierry Lévy-Abégnoli