Passer au contenu

Choisir son serveur

Avec la banalisation des plates-formes,les entreprises ne se soucient plus du modèle de leur serveur. L’existant, l’applicatif et l’analyse des besoins priment.

Mais qu’est-ce qui décide une entreprise à choisir un serveur plutôt qu’un autre ? Des raisons essentiellement pratiques, qui correspondent à une prise en compte du système d’information dont les serveurs ne sont qu’une des composantes. L’adage en la matière pourrait bien être : un bon serveur, c’est un serveur dont on ne parle pas.

Le retour sur investissement est capital

Cet état d’esprit tranche avec les pratiques des dernières années, comme l’explique Xavier Touboul, directeur de projets chez Neurones, SSII et intégrateur : “Nous avons quitté l’époque de l’informatique de prestige où il fallait tout essayer au nom de besoins futurs, où l’on jouait avec les technologies. Le discours est désormais hors technique : l’outil informatique doit répondre à un besoin, son efficacité se mesurant en retour sur investissement et en disponibilité.”En ce qui concerne les serveurs, leur choix est de plus en plus lié à celui du logiciel et à l’intégration dans le système d’information. ” L’entreprise sélectionne ses logiciels et se décide ensuite pour une plate-forme “, explique Karen Benson, analyste au Gartner Group. Un état de fait que résume Didier Coudert, responsable du middleware de Dassault Systèmes : “Toute entreprise a une vue applicative de son informatique, elle ne se consacre pas uniquement à son infra-structure matérielle.” Il arrive d’ailleurs que l’application dicte le type de plate-forme. Ainsi, Xavier Laurent, directeur des systèmes d’information de l’annuaire Scoot.fr, explique : “Historiquement, l’entreprise avait fait le choix de plates-formes Wintel. Mais, pour notre outil de recherche Exalead, nousn’avons pas eu le choix : quoique disponible sur plates-formes NT, pour les besoins de Scoot, Exalead nous a suggéré d’utiliser des plates-formes de type Alpha.”Il n’est pas rare que l’application impose une plate-forme, notamment dans le domaine de l’informatique technique et de calcul, constituée d’applications spécialisées comme la CAO, les calculs de structure et au-tres programmes avides de ressources. “Dans le calcul scientifique, l’optimisation du logiciel se fait au niveau des instructions par des ingénieurs qui connaissent les plates-formes, les OS et les codes des applications”, confirme Régis Nottet, directeur marketing produits et infrastructures chez HP. La maîtrise de l’ensemble des composants est nécessaire afin d’améliorer la capacité de traitement.En revanche, pour l’informatique de gestion, qui englobe toutes les applications assurant le bon fonctionnement de l’activité de l’entreprise, la tendance est depuis plusieurs années à un net désenclavement. Les éditeurs ont multiplié les portages. Il est devenu rare qu’une application ne soit pas disponible dans au moins deux environnements. Comme le résume Karen Benson, “l’évolution générale des performances des systèmes au fil des ans a favorisé les portages”. Cette tendance reflète l’évolution des capacités du matériel et celle des demandes des clients : “Pour nos produits, il n’existe pas de plate-forme favorite. Nous n’avons d’ailleurs pas de pouvoir de recommandation du matériel auprès de nos acheteurs : la base installée prime et le client ne nous demande pas notre avis. Il est aussi vrai qu’il n’existe plus aujourd’hui de problème de puissance des machines”, explique Patrice Fontaine, chef de produits Lotus chez IBM. Et de poursuivre : “Dans notre domaine, nous ne procédons pas à l’optimisation des applications scientifiques pour mieux exploiter la puissance de traitement. Lorsqu’il y a besoin de plus de puissance, on ajoute une machine.” Même constatation chez l’éditeur de PGI Adonix, comme le reconnaît Dominique Bopp, directeur produits : “Nous constatons que le choix de la plate-forme n’est pas lié à celui du PGI. Il faut aussi bien comprendre que les SSII qui développent des applications paramétrées tout comme les partenaires qui adaptent et préconfigurent nos solutions ne doivent pas avoir de prérequis sur la plate-forme, ni sur la base de données, ni même sur l’interface d’accès.”Cette mise à l’écart des contraintes de plate-forme renforce un critère de choix connu depuis longtemps : la maîtrise de l’environnement d’exploitation. Rester dans un environnement connu procure le double bénéfice d’en posséder une maîtrise acquise par l’expérience et de ne pas avoir besoin de recruter ou de former des collaborateurs pour gérer les équipements. “Quand on détermine un type de machine pour une entreprise, on tente d’abord de comprendre sa fonction et l’évolution de cette fonction. Mais on s’interroge aussi sur les services et les compétences que peuvent assurer les équipes internes. Mutualiser sur un environnement non maîtrisé n’a de sens que si le retour sur investissement le justifie”, explique Xavier Touboul. De plus, qui dit introduction d’un nouvel environnement dit aussi souvent nécessité de résoudre des problèmes d’intégration. Mais cette règle a des exceptions. D’abord parce que l’infogérance des composants non stratégiques du système d’information devient de plus en plus courante.Une récente étude IDC estime que 20 % des équipements informatiques prennent le chemin de l’infogérance, soit un serveur sur cinq. Comme l’explique Gérard Simonet, cogérant d’Apsim, VAR et SSII spécialisée iSeries : “Nous venons de réaliser un extranet pour une filiale de RVI.Celui-ci repose sur WebSphere et DB/2, le tout installé sur un AS/400 que nous administrons, alors que le client exploite un environnement Unix non IBM. Mais l’offre leur a paru judicieuse parce que l’AS/400 fonctionne comme une boîte noire sur laquelle ils n’ont pas besoin d’intervenir.”Une autre raison d’intégrer un nouvel OS peut être la volonté de mieux maîtriser son environnement d’exploitation en prévision de la croissance de l’activité. Ainsi, Aleos (lire encadré) a développé son activité de services d’hébergement Linux sur une plate-forme S/390 bas de gamme : “Cela nous a permis de limiter les coûts d’administration et ceux de matériel annexe, même s’il a été nécessaire de nous former à l’environnement”, précise Mathieu Chambon-Cartier, directeur de l’entreprise. Là encore, l’argument de maîtrise des coûts est clairement mis en avant.Dernière conséquence de cette logique pratique : le poids des circonstances. Dominique Bopp le constate : “Souvent, lorsqu’une entreprise renouvelle son PGI, elle en profite pour changer de matériel. Les compétences de l’intégrateur et les discours marketing sont alors déterminants.”Dans un marché où la qualité technologique des équipements compte moins que la notion de service global et les discours sur la facilité d’usage, certaines plates-formes sont menacées par faute de soutien marketing. “La plate-forme AS/400 est menacée sur les petites configurations (quatre à cinq postes), où les gens passent facilement à Windows. IBM perd des parts de marché par la base, pour des raisons non pas techniques, mais commerciales. Or, notre expérience nous prouve que les systèmes AS/400 sont deux fois plus fiables que les systèmes NT.”, constate Richard Simonet. “À coût équivalent, les diverses technologies serveurs sont à peu près de la même qualité. Ce qui compte le plus, ce sont le financement, les services, les équipes. Même chez les constructeurs, le discours a changé”, conclut Xavier Touboul.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Renaud Bonnet