Passer au contenu

La virtualisation, support de la qualité de service

Le SAN optimise l’exploitation des ressources de l’entreprise. La virtualisation logicielle et les opérateurs de stockage constituent les prochaines étapes vers la réduction des coûts et la maîtrise de la qualité de service.

Pour une fois, tous les analystes sont d’accord. Dans les entreprises, seuls 30 à 60 % de la capacité disque sont réellement utilisés ; le reste est perdu à cause de la difficulté à administrer le stockage lorsque celui-ci est attaché directement aux serveurs.Dans le monde des systèmes ouverts ?” Unix et Windows 2000 ?”, chaque application mobilise son propre serveur et ses propres disques. Les volumes atteints deviennent vite prohibitifs : “Une grande entreprise a récemment comptabilisé l’espace disque installé derrière ses 280 serveurs de bureautique : le total représente 20 To de capacité, soit nettement plus que dans un grand centre de calcul “, illustre Emmanuel Besluau, de Sievers Consulting, cabinet d’analyse technologique. “Malgré cela, l’espace disque est une denrée rare dont on manque en permanence “, poursuit?”il. Car les usagers rechignent à faire le ménage : les courriers électroniques s’entassent, exigeant toujours plus d’espace. Une situation que rencontre Robert Vonnet, consultant stockage pour Cap Gemini Ernst & Young : “Nos clients ont de moins en moins besoin d’acheter du stockage supplémentaire. C’est surtout l’existant qui doit être mieux exploité !” Le fait que l’explosion des données concerne des fichiers de bureautique, des bases documentaires et la messagerie n’enlève rien à leur aspect stratégique. Avec la généralisation des échanges numériques et l’arrivée de la signature électronique, un e-mail devient une preuve à part entière et va être aussi important qu’une transaction bancaire. Pourtant, ces données ne seront, pour certaines, jamais consultées.

Une hiérarchisation du stockage de l’information s’impose

Pour Michel Gacem, directeur du pôle d’activité Storage et Cluster de Morse, intégrateur de stockage, “50 % des informations conservées sont inutiles “. Mario Noyon, ingénieur chez Nest, prestataire de services de stockage, ajoute : “La grande majorité des e-mails ou des fichiers au format PDF présents sur disque ne seront pas modifiés, voire pas consultés, durant l’année.” Une hiérarchisation du stockage de l’information s’impose. Hélas, “il n’existe pas de profilage qui indique ?” au moins au niveau d’une base de données ?” comment l’information doit être conservée (sur disque plutôt que sur bande), et le temps d’accès toléré”, déplore Bernard Aubineau, associé chez StorageAcademy. Ce qui empêche toute automatisation des traitements. En outre, “les entreprises différencient mal les informations importantes de celles qui le sont moins. Les outils actuels de hiérarchisation du type HSM (Hierarchical storage management) ne répondent pas à leurs besoins”, avance Robert Vonnet. Le cabinet Forrester Research, pour sa part, est catégorique : “Les outils de gestion hiérarchique du stockage sont trop complexes et ne décolleront pas. Pour réduire les coûts, les entreprises opteront pour le réseau de stockage ou pour les services des SSP (Storage service providers).La voie semble donc tracée. Mais chacun pointe des urgences différentes. “La qualité de service due au client, c’est de garantir 100 % de la restauration des données”, affirme Robert Vonnet. “À la restauration, on constate trop souvent que l’outil employé a mal sauvegardé. La raison en reste difficile à déterminer, et une maquette est toujours indispensable pour valider le bon fonctionnement de l’ensemble “, termine-t-il.“La qualité de service dépend de l’architecte du système. Celui-ci s’appuie sur les services fournis par les matériels et les logiciels pour assurer la disponibilité et la confidentialité des données “, rebondit Emmanuel Besluau. “C’est tout un art. Les commutateurs Fibre Channel peuvent disposer de fonctions de résistance aux pannes. Le Snapshot pourra être systématisé et commandé directement par le logiciel de sauvegarde. Certains logiciels commencent à savoir récupérer une boîte aux lettres donnée, et non toute une base. Cela nécessite des interfaces de commande spécifiques. La boîte aux lettres du p.-d.g., par exemple, doit rester confidentielle “, ajoute-t-il. “On doit évoluer vers une gestion des espaces disques avec une qualité de service associée, appuie Michel Gacem. Il faut pouvoir obtenir rapidement de l’espace de stockage et le relâcher tout aussi vite, si on veut mettre une base de données en ligne pour un événement.”Il n’existe pas de solution unique pour y arriver. “Les solutions mêlent le réseau, les disques et le logiciel ?” Brocade, HDS et Veritas, par exemple ?”, ou encore, les nouvelles solutions de virtualisation “, détaille-t-il. En ce qui concerne la virtualisation, les avis sont partagés. Forrester Research table sur son arrivée en 2003. “Il faut parler de la virtualisation, mais nous ne pousserons pas dans cette direction car les produits sont encore un peu jeunes “, considère Philippe Menestreau, responsable marketing chez 2AI, filiale de Bull spécialisée dans le stockage. “Sur de grosses configurations, ils risquent de créer des goulets d’étranglement “, ajoute-t-il. “Grâce à un cache important et bien géré, un serveur de virtualisation tient la charge. Il peut être doublé afin de parer à une panne “, assure Gilles Ribière, consultant chez DataCore Software, start-up américaine spécialisée dans la virtualisation.Une réponse que ne renieraient pas ses concurrents, Alexandre Delcayre, directeur technique de FalconStor ; ou Philippe Nicolas, responsable marketing chez Veritas. “Nous testons SANsymphony, de DataCore, depuis décembre 2000. Le logiciel mutualise l’espace disque de baies hétérogènes pour nos clients dans nos centres d’hébergement “, révèle Robert Vonnet. “Nous venons de signer un accord de revente avec DataCore “, annonce Michel Gacem. “L’avantage d’une solution comme SANsymphony est qu’elle récupère des baies à attachement SCSI. On peut ainsi ajouter leur capacité disque au SAN, explique Robert Vonnet. La toute dernière technologie de baie n’est plus nécessaire pour bénéficier de services comme la copie instantanée, la réplication distante, le LANless backup , ou le serverless backup , qui sont alors réalisés par le logiciel de virtualisation.”Il est encore rare de pouvoir interviewer un utilisateur d’un logiciel de virtualisation. Chez Cap Gemini Ernst & Young, le sujet est confidentiel. Chez TF1, autre client de DataCore, le responsable informatique, après avoir accepté, s’est dérobé. Nous nous sommes alors tournés vers 7 Global, un SSP britannique.

Le logiciel de virtualisation au service d’un SSP britannique

7 Global fournit du stockage administré à des ISP pour leur facturation et leur gestion de la relation clients. Ses six clients utilisent de 50 Go à 1 To d’espace disque. “La virtualisation a résolu plusieurs problèmes, explique Steve Costigan, vice-président chargé de la recherche. Nos baies d’origine IBM ne géraient pas de volumes dépassant les 200 Go. Il était, en outre, impossible d’agréger l’espace disque de deux baies identiques. Enfin, nous ne pouvions pas effectuer de réplication asynchrone des données à travers des réseaux IP.” Or, certains clients de 7 Global sont reliés au site central via des liaisons en Gigabit Ethernet longue distance et doivent dupliquer leurs données à hauts débits. Autre point : les ressources de stockage de 7 Global consistent en un SAN auquel sont raccordées une baie d’IBM de 1 To de données, et une baie HDS de 3,5 To. Or, le logiciel SANsymphony unifie ces deux univers comme s’ils provenaient du même constructeur : “Nous constituons des espaces logiques avec de l’espace physique venant des deux baies “, confirme Steve Costigan. Par sécurité, 7 Global a doublé le serveur de virtualisation en installant deux ProLiant biprocesseurs sous Windows 2000 avec 1 Go de RAM et deux cartes Fibre Channel. Une quinzaine de serveurs accèdent au SAN.Il faut souligner que cette unification des environnements de deux constructeurs est réalisable avec d’autres logiciels : “Nous avons effectué la sauvegarde d’une baie de Dot Hill sur une baie HDS avec le logiciel IPStor, de FalconStor “, témoigne Robert Vonnet. De telles possibilités techniques ouvrent de nouvelles perspectives. Dans le cadre d’une prestation d’infogérance, un fournisseur de services peut, par exemple, revendre de l’espace de stockage venant de baies que lui aurait confiées un de ses clients. Le secret de la rentabilité des SSP pourrait résider dans l’usage de ces technologies de virtualisation. Mais, ce n’est pas le seul. Pour Mario Noyon, “les informations peu consultées peuvent être stockées sur un support de type near-line pour réduire les coûts”.Nest proposera un service bâti à partir du système Amass, d’ADIC. Cette bibliothèque de bandes magnétiques fonctionne comme un NAS d’une capacité de 960 To, avec un temps d’accès de 30 s à 1 min. Mais Nest fournira aussi du stockage sur réseau SAN : “Un SSP doit fournir de la capacité à la demande plus rapidement que si l’entreprise devait acheter cette capacité elle-même “, ajoute-t-il. Un argument que contrebalancent les constructeurs en livrant leurs baies totalement équipées, et en libérant de l’espace supplémentaire en vendant la clé logicielle ad hoc.Quoi qu’il en soit, les SSP devront faire face à un redoutable paradoxe : “Les entreprises acceptent d’externaliser leur infrastructure de stockage et sa gestion. Mais elles sont réticentes à confier leurs données à un prestataire extérieur, rappelle Doug Chandler, analyste chez IDC. D’ici à mars 2002, les SSP devront prouver qu’ils apportent les bonnes réponses en sécurité, confidentialité, disponibilité, performances, réactivité et économies.”

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Jean-Pierre Blettner