Passer au contenu

La consolidation, remède à l’informatique distribuée

L’histoire est un éternel recommencement. À l’ère des mainframes a succédé l’ère du tout-distribué. Aujourd’hui, les entreprises veulent rationaliser leur informatique afin d’en contrôler les coûts. Les offres de consolidation, nouvel eldorado des constructeurs, arrivent à maturité.

“Face à l’accroissement exponentiel du nombre de serveurs, nous devions trouver une solution. Gérer une centaine de serveurs est totalement différent que d’en gérer cinq”, explique Ezéquiel Patino, responsable architecture et systèmes à l’ANPE. Depuis l’émergence des environnements distribués, les départements informatiques ont connu une croissance infernale du nombre de leurs serveurs. À chaque nouvelle application, c’est un ou plusieurs serveurs que l’on déploie aujourd’hui.L’administration de dizaines ou de centaines de serveurs hétérogènes (Unix, Windows et Linux) localisés sur différents sites est devenue un casse-tête quotidien tant au niveau technique qu’au niveau administratif. Et il n’est pas rare que ces machines soient sous-utilisées. Le GartnerGroup indique que, dans un environnement distribué, nombreux sont les serveurs, et particulièrement ceux sous Windows NT/2000, employés à 20 ou 25 % seulement de leur potentiel. Éric Taillard, directeur des ventes de serveurs Unix d’IBM, ajoute même que “les serveurs Intel, qu’ils soient sous Windows ou Linux, sont une réponse aux problématiques de coût d’acquisition, et en aucun cas à celles de coût d’exploitation”.

Consolider les serveurs afin de contrôler les coûts

Certaines entreprises n’arrivent donc plus à gérer leur informatique, et veulent la rationaliser afin d’en contrôler les coûts dans une période où les budgets se resserrent. De fait, après la consolidation du stockage, ce sont les projets de consolidation des serveurs qui ont le vent en poupe. La société Tarkett Sommer, spécialisée dans les revêtements de sol, a opté pour la consolidation de son environnement informatique, pour optimiser l’exploitation de son ERP et réaliser des économies d’échelle. Elle a remplacé vingt-six serveurs IBM AS/400, répartis sur une dizaine de sites en Europe, par un seul serveur de haut de gamme IBM iSeries 840 sous OS/400.

La chasse gardée des mainframes est révolue

“Ce projet de consolidation nous a permis de réduire nos coûts grâce à la simplification de la gestion de notre système d’information, qui gagne en cohérence et en stabilité. Un serveur unique revient forcément moins cher. Nous n’avons à présent qu’un seul contrat de maintenance et qu’une seule licence de logiciel. Globalement, nous avons doublé notre puissance informatique tout en restant à iso budget. C’est aussi une solution évolutive, qui va nous autoriser à gérer la croissance”, déclare Bruno Charles, responsable informatique de Tarkett Sommer, en charge du projet.Depuis deux ans, le gain de puissance des serveurs, la démocratisation des mécanismes de partitionnement et les solutions de gestion de charge ne sont plus réservées aux seuls environnements mainframes. Les constructeurs, tels Compaq, HP, IBM, Sun et Unisys, semblent à même de répondre aux nouvelles problématiques de consolidation.

Une grande flexibilité

Le partitionnement donne la possibilité de diviser un système SMP en plusieurs sous-ensembles SMP physiques ou logiques sur lesquels tournent un système d’exploitation et des applications. Ainsi, sur un même serveur, il est possible de consolider les environnements de production, de qualification et de développement, ainsi que plusieurs systèmes d’exploitation et les applications multitiers. La gestion dynamique des partitions que proposent certains constructeurs comme Sun, HP et IBM permet d’attribuer à une partition plus de ressources en cas de besoin. Une partie des processeurs d’une partition peut ainsi être allouée dynamiquement à une autre sans arrêter pour autant les applications.De plus, ce mécanisme est très souvent couplé à des solutions de capacité à la demande, qui rendent possible l’activation instantanée de nouveaux processeurs en cas d’augmentation planifiée ou non de la charge du système. Ces processeurs jusque-là dormants sont alors réveillés et, bien sûr, facturés au client, qui reçoit une facture mensuelle de sa consommation effective de puissance, grâce aux dernières méthodes de facturation de type Utility Pricing, de HP.“Le HP Superdome nous offre une très grande flexibilité pour créer et dimensionner des partitions comme nous l’entendons. Grâce à sa puissance, que nous pouvons accroître par l’ajout de processeurs, nous avons pu consolider l’existant”, déclare Ezéquiel Patino.Mais, comme l’explique Pascal Berton, directeur marketing serveurs Unix de HP, “si les mécanismes de partitionnement facilitent et favorisent la consolidation, la réduction des coûts ne s’obtient que grâce aux outils et aux systèmes de gestion de charge”.Ces outils sont tout à fait complémentaires du partitionnement physique ou logique. Ils sont capables de distribuer certaines ressources du système (temps CPU, mémoire et entrées-sorties). Leur objectif est d’arbitrer la consommation de ces ressources réalisée par chaque application ou utilisateur partageant un même environnement, selon des quotas ou suivant des objectifs techniques fixés à l’avance. Ces quotas sont modifiables en ligne et instantanément applicables. Ils autorisent un contrôle total et précis de chacune des applications supervisées, et l’augmentation du taux d’utilisation des ressources. Tous les acteurs accompagnent donc leur offre de consolidation par ces outils de gestion de charge. IBM a porté son WLM (Workload manager) fourni avec z/OS sous ses environnements AIX, sans toutefois atteindre la même richesse fonctionnelle. En effet, WLM sous AIX ne sait gérer que les processeurs et la mémoire, exit donc la gestion de la mémoire virtuelle, des entrées-sorties et des processus.Mais, c’est surtout l’absence de définition d’objectif technique qui fait cruellement défaut à cette version AIX. Seul HP est en mesure de proposer cette fonction sous un environnement Unix, puisque le SRM (Solaris resource manager), de Sun, l’interdit.Un autre mode de consolidation apparaît aujourd’hui avec l’émergence des serveurs en lames. Si le nombre de serveurs reste ici constant, en revanche, du fait d’un encombrement très limité, les lames offrent une densité très importante, qui permet de consolider physiquement des serveurs répartis sur plusieurs sites et de rationaliser les mètres carrés. Les solutions d’administration qui les accompagnent favorisent l’administration d’un rack de trois cents ou cinq cents serveurs à partir d’un seul logiciel. De plus, les serveurs en lames donnent la possibilité de réduire considérablement le câblage et la consommation électrique.

Des difficultés humaines et culturelles

Selon Éric Taillard, directeur des ventes pSeries d’IBM, “la consolidation est certes délicate puisque à la convergence de trois domaines : migration matérielle, migration logicielle (systèmes et applications) et services, mais son retour sur investissement constaté est de six mois”.Pour Bruno Charles, les plus grosses difficultés d’un projet de consolidation sont humaines et culturelles : “On fait de l’externalisation interne, en quelque sorte, et il n’est pas simple de convaincre les directeurs informatiques des différentes filiales de se séparer de leurs machines et de leurs données.”

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Nicolas Belot