Passer au contenu

Les processus applicatifs sous haute surveillance

La concurrence bat son plein sur les outils qui identifient l’origine d’une dégradation des performances applicatives.

‘ Les applications sont de plus en plus composites et réparties sur des environnements hétérogènes. Dès lors se pose la question de garantir leurs performances et leur disponibilité. D’où la nécessité des
logiciels d’APM (Application performance management) ‘,
justifie Serge Bonnaud, responsable du marché Tivoli dIBM.Les outils d’APM suivent notamment les temps de réponse des transactions applicatives. ‘ Ils aident à identifier les points faibles et les points forts d’une application en termes de performances et
de respect des engagements des niveaux de service ‘,
explique Anthony Moillic, directeur technique de Quest Software.L’exemple le plus souvent cité par les éditeurs afin de justifier un outil d’APM est celui d’un site de commerce électronique : de mauvais temps de réponse amèneront irrémédiablement les visiteurs à se tourner
vers un site concurrent. Plus généralement, la dégradation des performances peut causer des dégâts financiers importants à une entreprise. Côté technique, les logiciels d’APM s’appuient soit sur une, soit sur deux méthodes de mesure de
performances.Une première approche consiste en des mesures synthétiques, dites actives. Elles sont issues de robots (ou sondes) qui déroulent des transactions prédéfinies ou des transactions réelles enregistrées dont on mesure la durée de bout en
bout. Ces robots sont déployés au sein de l’entreprise ou à l’extérieur, afin d’évaluer l’expérience d’un utilisateur du site. Ils seront programmés pour s’exécuter périodiquement.Les résultats sont remontés vers une console centrale qui dressera les tableaux de bord à destination des responsables (exploitation, application, système, etc.). Des seuils d’alertes aident les administrateurs à réagir avant que
l’utilisateur final ne soit affecté par une dégradation de performances. Tous les résultats de mesure sont ‘ historisés ‘, afin de détecter l’évolution des besoins en termes de capacité (capacity
planning)
au fil du temps.Reste qu’il s’agit de simulations de transactions prédéfinies et configurées pour fonctionner parfaitement. On peut vouloir des mesures plus proches de la réalité. Certains outils d’APM proposent donc une seconde
méthode : on évalue les temps de réponse réellement vécus par les utilisateurs en installant des agents sur leurs postes.Ces mesures servent lorsque les utilisateurs détectent un problème qui n’est pas forcément identifiable ou accessible par les robots. Seul bémol : une alerte peut être déclenchée sans possibilité de résolution proactive, car
l’utilisateur aura suscité un problème de façon aléatoire.

Décomposer le temps de réponse en sous-parties

Plus globalement, tous les outils d’APM, qu’ils utilisent une ou deux de ces méthodes de mesure, décomposent le temps de réponse total en sous-parties. On dispose du délai passé sur le réseau (LAN ou WAN), les frontaux
Web, les serveurs d’applications, les bases de données, etc. On identifie ainsi le lieu d’une dégradation, mais pas forcément sa cause.Pour cela, certains éditeurs vont plus loin et recourent à des outils spécifiques, qui s’appuient généralement sur des agents applicatifs afin d’analyser plus finement les processus. Par exemple, au sein d’une
application, ces agents décomposent tous les temps intermédiaires entre une requête JSP (Java Server Page), issue d’un serveur Web et la requête SQL, envoyée à la base de données.Puis, au sein même de la base de données, ils chronomètrent chaque étape : traitement de la requête, interrogation de l’index, recherche dans la table, accès au fichier, requête à la baie de disques… Une telle
solution d’APM identifie précisément la cause d’un problème.Historiquement, les outils de mesure basés sur des agents servaient en priorité aux développeurs lors des tests et de la préproduction, dans le but d’optimiser une application. Toutefois ‘ de plus en plus
d’entreprises utilisent les deux modes
[global et détaillé, NDLR] en production afin de surveiller leurs applications critiques ‘, constate Pierre Baudin, directeur marketing de Wily Technology
(racheté par Computer Associates en janvier). D’ailleurs les principaux éditeurs de logiciels d’administration et de supervision les proposent, de plus en plus, via des produits spécifiques ou intégrés.

Séparer le test de la production

Marc Bernis, directeur technique logiciel de HP, tient cependant à rappeler que si les outils d’analyse en profondeur sont utilisés en production, il faut séparer ‘ ce qui est du domaine de la préproduction
de ce qui est de celui de la production. Un outil d’analyse de transaction pointera vers une ligne de code mal écrite, mais il est peu probable que les responsables d’exploitation autorisent un changement dynamique du code. Il faudra
repasser par une phase de test et de validation ‘.
Pour Eli Kanaan, vice-président marketing de Mercury, ‘ Il est très important d’avoir des outils adaptés à la production comme des outils destinés au test et à la préproduction, qui permettent de définir en
toute connaissance de cause, les bons niveaux de service (SLA) et de seuils d’alertes. ‘
Si des agents applicatifs sont proposés par les éditeurs, leurs outils d’APM peuvent aussi dialoguer plus étroitement avec certains progiciels applicatifs disposant d’API d’instrumentation ad
hoc.
Quant aux applications maison, ‘ il faut les outiller via des API, mais si ce n’est pas fait dès le développement, cela a très peu de chances de l’être par la suite ‘,
prévient Marc Bernis.Au final, les produits d’APM fonctionnent, peu ou prou, selon les mêmes principes techniques. Ils se distinguent alors par leur héritage, certains étant plus pointus dans un environnement donné, comme J2EE (Wily Technology) ou
les SGBD (Quest Software). Certains outils sont également plus intrusifs que d’autres, et plus gourmands en puissance de processeur.Pour se départager, les éditeurs préfèrent insister sur des critères comme la simplicité de mise en ?”uvre. Mais c’est davantage la présentation des résultats qui les différencie. La personnalisation des tableaux de bord par
profils d’utilisateur (responsable d’infrastructure ou d’applications, administrateur de bases de données, développeur) est un critère important.Idem en ce qui concerne le diagnostic et l’aide à la résolution d’un problème. Certains outils intègrent ainsi des bases de connaissances. Des éditeurs livrent aussi un environnement complet d’aide au développement
applicatif avec simulation de la montée en charge (Compuware, Mercury Interactive…).Le mode de tarification sera déterminant, certaines solutions étant facturées à la transaction contrôlée, d’autres au nombre de processeurs des serveurs surveillés. Le choix d’un logiciel d’APM dépendra aussi de sa
capacité à s’interfacer à des plates-formes de gestion d’infrastructure, ou à s’intégrer à une CMDB (Configuration Management Data Base) dans le cadre d’une stratégie d’automatisation de la
gestion des services métiers.Ainsi, les logiciels d’APM remettront au sein de la CMDB des informations telles que le dépassement de seuils d’alertes, le non?”respect des niveaux de service (SLA). La CMDB aidera à la corrélation avec
d’autres événements ?” telles une défaillance ou une surutilisation de certaines ressources matérielles ?” et à l’analyse de l’impact sur les processus métiers et sur l’activité de
l’entreprise.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Nicolas Belot