Passer au contenu

Technologie : polémique autour du débit offert par les architectures symétriques

Le bon fonctionnement d’un système de virtualisation symétrique dépend de sa capacité à gérer les flux, sans créer de goulet d’étranglement.

Les premiers systèmes de virtualisation opérationnels reposent sur une architecture symétrique. Simple à mettre en place, elle implique que la virtualisation des espaces disques passe par une plate-forme intermédiaire, placée entre les serveurs de production et les baies de stockage. Datacore utilise un serveur bi, tri ou quadriprocesseur tournant sous Windows NT, baptisé SDS (Storage Domain Server). Ce dernier joue en fait le rôle d’un second cache par rapport à celui déjà présent dans la baie. En ce sens, il est susceptible d’accélérer les débits entre les serveurs et les baies. Le SDS atteindrait ainsi les 100 000 entrées/sorties par seconde pour un débit avoisinant les 600 Mo/s (dans une configuration associant plusieurs bus PCI à 64 bits). Lorsque le volume des données devient trop important, Datacore installe plusieurs serveurs NT en redondance. Tous mis en grappes par paire. Une architecture qui ne convainc pas HDS, dont les nouvelles baies affichent le plus haut débit sur le marché, 3,2 Go/s. “Nous avons trente-deux attachements à 100 Mo/s. Or, pour soutenir ce débit, il faudrait une dizaine de SDS avec tous les problèmes de mutualisation de serveurs et de synchronisation des caches que cela implique. Car, actuellement, les serveurs sur lesquels s’appuie Datacore commencent à peine à être équipés de bus à 64 bits. Résultat, le débit des SDS ne peut dépasser les 133 Mo/s “, explique Michel Alliel, directeur des systèmes de stockage chez HDS. Qui pose, par ailleurs, la question de la fiabilité des serveurs NT. Il considère, comme EMC et IBM, que les offres de Datacore ou de Falconstor ne sont pas adaptées aux gros réseaux de stockage. Les premiers clients le diront… Toujours est-il qu’avec les systèmes de virtualisation asymétrique, que Compaq devrait être le premier à lancer, la problématique du goulet d’étranglement ne se pose plus. Ici, la virtualisation s’effectue au niveau des cartes de connexion dans les serveurs de production. D’un autre côté, cette architecture est plus lourde à installer. Surtout, elle exige une totale interopérabilité entre les différents n?”uds du réseau de stockage, qui utiliseront un nouveau protocole spécifique.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


La rédaction