Passer au contenu

Virtualisation du stockage : fédérer les volumes en une unique ressource

Virtualisation du stockage : procédé aussi dénommé abstraction du stockage. Il sépare présentation logique et réalité physique des ressources de stockage : le client accède à ces ressources indépendamment des protocoles utilisés.

La virtualisation consiste à masquer la disparité des ressources de stockage, et à les présenter comme un volume logique homogène. Cette couche d’abstraction intermédiaire agit comme un courtier (broker) de capacité : elle fournit de l’espace de stockage aux applications, fait cohabiter des environnements hétérogènes dans une même représentation, permet l’adjonction de capacité à la volée, et laisse l’administrateur appliquer une politique unifiée de gestion des données.

Utilisation : accessible par tout protocole

La virtualisation est une réponse à la gestion de la disparité des ressources de stockage : équipements, protocoles d’accès, environnements d’exploitation. Elle permet à tout client (serveur, application, poste de travail) d’accéder à tout équipement de stockage par tout protocole. D’une part, elle organise les ressources de stockage sous la forme d’une capacité unique, comme un disque de grande taille, qu’exploitent les applications. D’autre part, elle distribue les données en mode bloc sur l’infrastructure de stockage, en appliquant les politiques de gestion définies par l’administrateur (réplication, sauvegarde, mirroring distant, caches…). La virtualisation fait du stockage un système indépendant de l’applicatif. Il devient possible de différer une sauvegarde en la conservant sur disque, d’améliorer les performances d’accès aux données, de repenser le striping Raid ou d’ajouter de la capacité sans interférer avec la production. Elle allège aussi le coût élevé de la gestion du stockage, estimé aujourd’hui à 7 e d’administration et de logiciel pour 1 e de matériel sur trois ans. La virtualisation permettrait de réduire ces coûts de gestion de 30 à 50 % selon la complexité de l’infrastructure installée. Reste que la virtualisation manque de standards et d’une définition unifiée. Parfois limitée au SAN, aux disques, ou à la sauvegarde, elle devrait pourtant s’étendre à terme à l’ensemble des opérations et des ressources de stockage : DAS, NAS et SAN.

Principe de fonctionnement : une représentation logique intermédiaire

La virtualisation est une couche intermédiaire (middleware), composée de logiciels, matériels (serveurs et caches) et équipements réseau (commutateurs) combinés ou non. Pour être stocké, le trafic sortant des serveurs est intercepté par la couche de virtualisation et redirigé vers les ressources de stockage physiques. Des émulateurs sont parfois exploités pour permettre aux serveurs de communiquer dans une syntaxe qu’ils maîtrisent (protocole d’accès et protocole d’acheminement de données) comme s’ils parlaient à un équipement de stockage connu. La couche de virtualisation exploite des technologies de mapping de ressources physiques sur une représentation logique intermédiaire. Elle intègre les méthodes propres à l’administration du stockage (mirroring, restauration, sauvegarde, snapshot, réplication…), ainsi que des traducteurs pour les protocoles et les environnements (FC, SCSI, iSCSI, Hippi, Escon, Fips, NFS, CIFS…). Au moins six technologies cohabitent aujourd’hui (lire encadré) : baies de virtualisation, logiciels hôtes de masquage d’unités logiques, métacontrôleurs de redirection de données, serveurs de virtualisation dédiés, serveurs de domaines de stockage, commutateurs de virtualisation.

Acteurs : tout le monde s’y met

Constructeurs, éditeurs et équipementiers s’intéressent tous à la virtualisation, et travaillent souvent ensemble. En effet, ce genre de solutions comporte des aspects matériels, logiciels et réseaux. Chez les grands constructeurs, EMC organise la virtualisation à partir de ses baies Symmetrix (plus de 150 000 e), et des NAS Cellera et Clariion. HP-Compaq possède aussi des baies de virtualisation (SureStore xp 128 à partir de 110 000 e, StorageWorks Enterprise Virtual Array), mais aussi des logiciels (plusieurs modules OpenView et SANworks, VersaStor), et des serveurs et équipements réseau dédiés (SANlink SV 3000, plus de 100 000 e). Sun propose une baie de virtualisation (StorEdge 6900, plus de 110 000 e), et développe Jiro, une plate-forme de gestion du stockage. NetApp commercialise avec NuView des NAS de virtualisation et des logiciels. IBM, lancé dans le projet Storage Tank, commercialise déjà un serveur dédié et une baie de virtualisation. StorageTek dispose d’une solution de virtualisation de bandes. Chez les éditeurs, on trouve Veritas (ServPoint Appliance, SAN Volume Manager à partir de 16 000 e, Foundation Suite), DataCore (SANsymphony à partir de 30 000 e), FalconStor (IPStor), Neartek (VSE pour bandes). On peut aussi citer BMC (Patrol ACSM), Tivoli, CA, Fujitsu Softek, Vicom, TrueSan, LeftHandNetworks, Kom, XioTech (éditeur et constructeur)… Concernant les réseaux, les ténors du Fibre Channel (Brocade, Gadzoox, Vixel, MacData, LSI Logic) sont engagés soit directement, soit en partenariat dans la virtualisation. Enfin, de nouveaux acteurs comme Pirus Networks avec son récent commutateur de virtualisation PSX 1000 (85 000 $, 92 260 e) ou Maranti Networks arrivent sur le marché.

Alternatives : unir les technologies de stockage

La virtualisation n’aurait aujourd’hui comme alternative que l’unification générale des technologies de stockage autour de quelques standards ouverts. Jusqu’ici, les entreprises ont géré l’hétérogénéité comme elles le pouvaient. Une étude de l’Enterprise Storage Group affirme que 60 % des ressources de stockage inoccupées en entreprise le sont à cause de problèmes d’interopérabilité : ces espaces libres ne sont pas visibles depuis certains serveurs. Bien entendu, certaines formes de partage étaient possibles au sein de systèmes de type NFS, pour la création de serveurs de fichiers en réseau. NFS ne permet cependant pas une réelle unification des ressources. Aujourd’hui, le Global File System de Sistina (à l’origine un logiciel libre) permet de réaliser des clusters de stockage avec Linux, exploitant un système de fichiers distribué, avec un serveur de domaine de stockage. Cependant, il s’agit plus d’une alternative aux infrastructures de stockage disque propriétaires, fondée sur certaines techniques de virtualisation, que d’un système de virtualisation global.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Renaud Bonnet