Passer au contenu

Cap sur les services de gestion des transactions

Les échanges commerciaux interentreprises (ou B to B) empruntent des artères dont la responsabilité est partagée entre de multiples prestataires. Le prochain défi de l’e-commerce sera l’administration des transactions ainsi réalisées.

À l’heure de l’e-business, la supervision doit s’étendre. Traditionnellement, en matière d’administration, on considérait que les responsables de domaines techniques avaient juste besoin d’outils pour contrôler rapidement la zone dont ils étaient garants.Depuis, il y a eu beaucoup de marketing, principalement pour dire qu’il faut superviser l’ensemble et non pas seulement un composant ou un réseau.Tivoli, Computer Associates (CA), Aprisma (ex-Cabletron Systems), ou encore, HP s’en sont fait les hérauts en lançant la notion de framework : on met dans une même boîte logicielle beaucoup de produits qui vont tout faire et partager les mêmes composants techniques.Mais ce qui change aujourd’hui, c’est la prise en compte des aspects métiers. “La mode s’oriente vers des entrepôts de données regroupant toutes les informations collectées ; l’administrateur établit des rapports détaillés sur des contrats de service plus orientés métiers, sur telle ou telle transaction”, estime Alain Dang Van Mien, analyste au GartnerGroup.On peut ici citer l’offre de Systar, qui vise le contrôle des processus métiers et qui récupère des métriques afin d’identifier le comportement, normal ou anormal, d’un processus. En face, “CA, HP et Tivoli autorisent la création de vues métiers en assemblant les différents composants de la chaîne, une fonction absente chez BMC ou Candle”, assure Lance Travis, consultante chez AMR Research.Cependant, “pour la plupart, ces consoles n’indiquent pas la panne à traiter en priorité lors de la résolution d’incidents. Il faut pourtant raisonner selon l’impact sur l’activité de l’entreprise et non pas simplement traiter les alarmes dans l’ordre chronologique”, s’exclame Alain Dang Van Mien.La plus-value de l’outil n’est plus dans la collecte de l’information, presque gratuite. En effet, une application structurante telle que SAP, déployée en réseau, est fournie avec les outils et les instruments ad hoc.

Une tendance renforcée grâce aux ASP

En revanche, la demande est forte pour des besoins comme le calcul de performances d’un réseau, ou les temps de réponse sur une transaction. L’entreprise veut formaliser les relations entre les structures informatiques de production, qui suivent au quotidien la bonne exécution et la stabilité des systèmes techniques, d’une part, et son métier, d’autre part.
“La volonté d’associer les aspects métiers aux mesures de performances techniques, avec un contrat de service adapté, a commencé il y a environ un an et demi, grâce à plusieurs entreprises qui ont proposé des outils spécialisés. Le développement des ASP a renforcé cette tendance “, poursuit Alain Dang Van Mien. Une approche qui devra faire son chemin puisque moins de 15 % des services informatiques communiquent sur le niveau de qualité atteint, si l’on en croit le MetaGroup.Mais cela devrait changer car ceux qui achètent des produits de supervision ont des profils de moins en moins techniques. Il peut s’agir du responsable du projet e-business ou de celui du projet d’externalisation. Dans le même temps, avec l’avènement du commerce sur Internet, une partie de plus en plus importante des transactions commerciales s’est dématérialisée et s’effectue à l’extérieur de l’entreprise.Qu’il s’agisse de paiement électronique, d’obtention de crédit, de certification en ligne, ou de négoce sur une place de marché, le nombre de prestataires de services et de partenaires commerciaux impliqués grimpe en flèche.Dès lors, comment contrôler tous ceux qui contrôlent une partie de la transaction ? En outre, comment contrôler en justifiant les coûts de ce contrôle par rapport à une problématique métiers ? “C’est le nouvel enjeu de l’administration des applications. On parle également de gestion du risque par rapport à une transaction. Le risque d’indisponibilité, par exemple, est critique. Un processus métiers doit être associé à ce type de risque. Les fournisseurs d’outils de supervision doivent adopter une approche de vente dans ce sens “, explique Alain Dang Van Mien.Une analyse que partage, partiellement, Frank Prince, consultant pour Forrester Research : “Les outils de supervision traditionnels vont continuer à être enrichis de nouvelles fonctionnalités pour s’adapter au commerce sur Internet.” Ces outils contrôlent la disponibilité des serveurs, des applications, des réseaux ainsi que les performances des systèmes.Le MetaGroup souligne alors que ces fonctions resteront identiques : collecte des informations, corrélation entre les différentes alarmes, analyse des causes, et édition de rapports. Mais, afin de contrôler la globalité des échanges sur le Net, l’entreprise devra installer des agents de supervision sur les systèmes de ses partenaires, ou autoriser ses prestataires à collecter de l’information en son nom.Toutes ces tâches seront prises en charge par les systèmes traditionnels ou spécialisés dans la corrélation des événements tels que Micromuse ou Aprisma. HP OpenView interrogera des agents Keynote pour intégrer le temps de réponse d’une application Web.Frank Prince prédit toutefois un futur plutôt sombre aux outils traditionnels : “Ces outils souffriront toujours des mêmes défauts.”En l’occurrence, à l’exception du standard SNMP, la plupart des plates-formes de supervision possèdent leurs propres technologies d’agents à installer dans les systèmes à superviser, afin de centraliser les remontées d’informations.Prestataires de services et partenaires commerciaux devraient donc se rebeller lorsque des agents de consoles de supervision différentes seront installés chez eux afin de mesurer les temps de réponse de bout en bout. En outre, leur fonctionnement nécessite une phase d’intégration poussée : “Pour 100 F ht de logiciel acheté, on compte de 600 à 1 000 F ht dépensés pour sa personnalisation”, rappelle Alain Dang Van Mien.

De nouveaux services de gestion des transactions

En conséquence, CA, Tivoli et BMC ne réussiront pas à prendre le virage de la prochaine révolution Internet, c’est-à-dire la supervision des transactions commerciales interentreprises.“Quand on intègre la supervision de niveau métier dans des consoles prévues pour la supervision de systèmes et de réseaux, cela ne fonctionne pas. Il faut partir d’une ardoise vierge, et d’une indépendance vis-à-vis des contraintes d’intégration”, affirme Frank Prince. Des services de gestion des transactions électroniques seront nécessaires au fur et à mesure de la montée en puissance du commerce électronique. De nouvelles solutions seront indispensables, comme celles proposées par Dun & Bradstreet ou VeriSign.Il faudra arbitrer les problèmes interentreprises, stocker l’information de façon à retrouver facilement une transaction commerciale ancienne. Les vieilles plates-formes de supervision ne sont cependant pas condamnées à disparaître pour autant.Tout comme les mainframes n’ont pas disparu avec l’arrivée des systèmes distribués. Il faudra toujours savoir si le serveur de messagerie fonctionne de manière optimale et s’il n’est pas en surcharge. En outre, ces consoles resteront indispensables pour déterminer la cause technique d’une panne dans un système de gestion des transactions électroniques.En attendant, à court terme, les entreprises vont poursuivre l’instrumentation de leurs systèmes. Il faut dire qu’elles ont déjà vécu plusieurs vies depuis le décollage du marché de l’administration de réseaux, en 1997-1998. Il y avait alors peu d’outils, ils étaient chers, d’une qualité moyenne et surtout accompagnés d’un service médiocre, sans compter la difficulté de trouver des consultants compétents.Les principaux fournisseurs s’étaient positionnés sur le marché des grandes entreprises avec la notion de framework. “70 % des grands projets d’administration échouaient à cause d’une mauvaise organisation”, affirme Alain Dang Van Mien. “La structure de production informatique est extrêmement rigide, en particulier en France. Si on met en place un outil de supervision de l’ensemble, les responsables techniques (bases de données, systèmes, réseau…) n’arrivent pas à se mettre d’accord. L’équipe architecturale impose son projet, mais les différents responsables estiment au bout de quelques mois qu’il ne répond pas à leurs besoins”.

Créer une culture autour du projet

En résumé, les projets réussissent s’ils réduisent leur cadre d’opération. Il vaut mieux n’administrer que les PC les plus importants et se focaliser sur les applications de l’entreprise les plus stratégiques, adopter une approche par les coûts, avec un retour sur investissement.Enfin, l’important est de créer une culture autour du projet, de bâtir une structure d’interface en définissant des contrats de service et en responsabilisant les acteurs. Sinon, par réaction, les responsables font le choix de produits locaux (par exemple, NetIQ dans l’environnement NT) achetés sur des budgets différents et offrant un retour sur investissement plus rapide.Malgré cela, “en 2001, seulement 20 % des fonctionnalités des outils d’administration sont implémentées après six mois d’utilisation. On constate le même pourcentage sur les outils ponctuels. On réduit le rôle de l’outil par rapport aux personnes qui vont l’utiliser et aux compétences de mise en place. Les utilisateurs veulent contrôler les coûts, en demandant au payeur ce qu’il veut et en ajustant la qualité de service en conséquence dans le cadre de contrats de service”, conclut Alain Dang Van Mien.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Gérard Poirot