Passer au contenu

Virtualisation: optimiser le stockage

Les solutions de virtualisation éliminent les dépendances entre les serveurs et les ressources de stockage en insérant une couche ” intelligente “entre les deux. L’exploitation et l’administration des réseaux SAN en sont facilitées.

C’est bien connu, les hommes brûlent toujours ce qu’ils ont aimé. Le Storage Area Network (SAN) ou stockage en réseau a bien failli subir le même sort. Pour résoudre tous les problèmes liés au stockage et à la sauvegarde, le SAN semblait pourtant tout indiqué. Seulement, l’exploitation de tels réseaux se révèle plus gourmande en ressources humaines et financières que prévu. Un coup fatal pour le SAN ? C’était sans compter sur les experts du stockage. En effet, afin de réduire les coûts d’exploitation, de maintenance et pour bâtir aisément des réseaux de stockage hétérogènes, les acteurs du SAN reprennent à leur compte un concept vieux de vingt ans : la virtualisation. Cette technique consiste à agréger les ressources physiques disponibles, comme les disques, les baies de stockage, de sauvegardes ou d’archivage, et de constituer un pôle logique unique. L’espace de stockage des serveurs est défini directement en utilisant cette vue logique, masquant l’architecture physique de stockage.

Des coûts de gestion réduits

Premier avantage, cette approche diminue fortement les coûts d’exploitation et de gestion. En effet, les applications ne connaissent pas l’emplacement physique réel des données. Ensuite, l’ajout d’espace disque pour l’une d’entre elles s’effectue par un simple clic de souris et en cas d’ajout d’un disque, celui-ci est automatiquement détecté et reconnu au niveau de la vue logique. Le nouvel espace de stockage devient immédiatement disponible. Plus besoin de le déclarer et de le faire reconnaître au niveau des systèmes d’exploitation et des applications. Le second avantage est l’optimisation des ressources de stockage en faisant la chasse à l’octet perdu. Un même disque accueille si nécessaire les données de plusieurs applications. Les problèmes de partition des disques s’en trouvent aussi résolus. Si tous les constructeurs sont d’accord sur le bien-fondé de la virtualisation, des divergences apparaissent au grand jour quant à la méthode retenue pour sa mise en ?”uvre. Les querelles reprennent de plus belle pour savoir qui détient la solution idéale. Et aujourd’hui, la diversité de l’offre ?” il n’existe pas moins de cinq approches pour mettre en place une solution de stockage virtuel ?” tempère fortement les ardeurs des entreprises souhaitant franchir le pas.

Les solutions “in-band” et “out-of-band”

En classifiant schématiquement les familles de produits, deux grands courants se dessinent : les solutions “in-band” et “out-of-band”. Les solutions sont dites in-band ou symétriques lorsque les données et les commandes empruntent le même chemin physique. Dans le cas contraire, elles sont logiquement appelées asymétriques ou out-of-band.Les solutions symétriques requièrent la mise en place d’un équipement supplémentaire, prenant souvent la forme d’un serveur dans le réseau de stockage. Celui-ci détient l’intelligence nécessaire à la virtualisation. Cette approche a été adoptée par de nombreux constructeurs, comme Datacore, IPStor ou Veritas. Le serveur de virtualisation se retrouve au c?”ur du dispositif et en devient le centre névralgique, détenant toute l’intelligence. Cet équipement assure la translation d’adresses physiques et logiques pour les serveurs des entreprises. Ce concept ne manque pas d’atouts pour les séduire. Cette solution est rapide et simple à installer, puisque l’équipement est dédié. L’exploitation en est aussi grandement simplifiée et l’installation du SAN facilitée. Enfin, les constructeurs apportent leur touche personnelle en développant des fonctions spécifiques, comme la répartition de charge sur plusieurs liens Fibre Channel afin d’éviter toute saturation, par exemple. Seulement, ses détracteurs ne manquent pas de souligner certaines limites du modèle : la haute disponibilité est difficile à atteindre, l’évolution pour accompagner la croissance est délicate et, enfin, cette solution reste coûteuse. En effet, le serveur de virtualisation devient l’élément faible de la chaîne de stockage. Il est difficile d’assurer une continuité de service parfaite, même en multipliant les éléments redondants. De plus, lorsque le SAN devient important, l’écoulement d’un flux de données important peut se révéler, dans certains cas, délicat. La performance des mémoires cache est donc primordiale. La mise en grappe de serveurs de virtualisation est souvent la solution retenue pour répondre à ce besoin, mais son coût reste élevé. Face à ces craintes, une seconde philosophie a vu le jour : les solutions out-of-band ou asymétriques. Ce concept de virtualisation repose sur deux éléments : des agents déployés sur les serveurs et un “métaserveur” inséré dans le réseau de stockage. Ce métaserveur crée une vue logique de l’espace de stockage et transmet ensuite ces informations aux agents. Les données transitent alors directement entre les serveurs et les espaces de stockage. Cette approche facilite les manipulations des volumes virtuels. Ils sont partagés, échangés et recopiés entre serveurs. Les problèmes de LUN Masquing et de Zoning sont simplifiés puisque les données n’accèdent qu’aux volumes logiques qui leur sont attribués. Le métaserveur assure la cohérence de l’ensemble. Compaq et StorAge ont annoncé avoir adopté une telle approche. Toutefois, les contraintes sont encore fortes. Outre le déploiement d’agents sur les serveurs, certaines solutions nécessitent d’y insérer aussi une carte de communication spécifique. Ce concept reste encore très dépendant des constructeurs et des systèmes d’exploitation. Quelle que soit la voix choisie, la route qui mène à une solution de virtualisation complète s’annonce encore longue.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Xavier Bouchet