Passer au contenu

” La virtualisation libère les données des contraintes de l’infrastructure “

Décision Micro & Réseaux : Depuis quelques mois, la virtualisation du stockage est un leitmotiv dans le discours de nombreux constructeurs, Compaq en tête. N’est-on pas…


Décision Micro & Réseaux : Depuis quelques mois, la virtualisation du stockage est un leitmotiv dans le discours de nombreux constructeurs, Compaq en tête. N’est-on pas en train d’inventer un nouveau mot pour ce qui n’est, somme toute, que de l’administration du stockage ?
Abbott Schindler : Non, car la virtualisation décrit une méthode d’administration des données très différente de ce que l’on connaît aujourd’hui. Le principe est d’administrer, non plus des ressources physiques, mais les données elles-mêmes. Il y a aujourd’hui deux méthodes. La première existe depuis un certain temps déjà, il s’agit de la virtualisation symétrique, comme celle qu’offre un contrôleur Raid ou même un serveur de stockage en réseau [NAS, Ndlr]. Ces solutions sont faciles à administrer, d’où leur succès ces dernières années, mais leurs limites sont réelles parce que toutes les données finissent par passer par un point unique. La seconde méthode, dite de virtualisation asymétrique, est à la gestion globale des données ce que le SAN est aux architectures matérielles de stockage. Pour être bref, elle préserve un lien direct entre le serveur d’applications et ses ressources de stockage. Dans la pratique, le contrôleur de virtualisation n’est plus intercalé entre les serveurs hôtes et le réseau de stockage, mais il fait partie de ce dernier. Pour les applications, la virtualisation asymétrique crée une abstraction logique au niveau des blocs SCSI eux-mêmes, grâce à laquelle elles peuvent enfin tout ignorer des contraintes physiques d’entrée-sortie.Ne faudrait-il pas commencer par résoudre les problèmes d’interopérabilité des sous-systèmes, sans oublier les querelles d’architecture ?En ce qui concerne les querelles d’architecture, voyons d’abord d’où nous partons : des blocs de données et du protocole qui les gèrent, c’est-à-dire SCSI. Réseaux IP [iSCSI, SCSI sur IP, Ndlr] ou Fibre Channel, tout cela n’est qu’une affaire de tuyauterie. De toute façon, l’interopérabilité n’est pas liée au type de réseau utilisé. La vérité est qu’aujourd’hui nous utilisons presque tous les mêmes composants matériels, mais pas les mêmes couches logicielles. L’interopérabilité s’obtient d’un constructeur à un autre par une collaboration étroite, chacun expliquant à l’autre ce qu’il change. Mais cela coûte cher et la plupart des constructeurs, y compris IBM, reconnaissent la nécessité d’une plate-forme matérielle et logicielle, sinon commune au moins beaucoup plus standardisée.Si, pour l’essentiel, il s’agit d’une architecture logicielle, ne craignez-vous pas d’être supplanté par les éditeurs spécialisés ?Pourquoi le serions-nous ? Regardez l’évolution du marché. Comme pour les disques durs, les sous-systèmes de stockage tendent de plus en plus à devenir des briques de base. Pour conserver leurs marges, les constructeurs doivent les enrichir de fonctions nouvelles. La virtualisation ne fera qu’accentuer cet état de fait. Dans ce domaine, c’est la connaissance du terrain qui compte. Pensez au nombre d’experts impliqués dans la gestion des données, l’administrateur du réseau, le spécialiste Fibre Channel, le responsable des bases de données, etc. C’est maintenant que ces compétences s’entremêlent avec les conséquences que l’on connaît en matière de disponibilité des données. La virtualisation asymétrique va tout simplifier, parce qu’elle crée un niveau d’abstraction où la gestion des données peut être envisagée sans les contraintes de l’infrastructure et qu’elle sera, pour partie, automatisée. Dans ce jeu, tout le monde y trouve son intérêt et a sa carte à jouer, y compris les éditeurs de systèmes d’exploitation et d’applications.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Paul Philipon-Dollet