Passer au contenu

Anticiper la dégradation des performances

Consolider des datamarts reporte tous les accès sur une seule base centralisée, et impose de planifier le dimensionnement matériel.

Si l’on prend pour exemple une entreprise où six datamarts sont chacun sollicités par trente utilisateurs, la consolidation amène logiquement à devoir faire supporter cent quatre-vingts utilisateurs par une seule et même base de données. Autant dire que la probabilité de voir augmenter le nombre d’utilisateurs exécutant des requêtes complexes sur les mêmes données devient beaucoup plus grande. Et ce avec le risque de pâtir de temps de réponse de plus en plus longs, de blocages d’accès aux données, ou encore de jointures entre tables non optimisées. Cela se complique encore davantage si ces utilisateurs se situent dans des fuseaux horaires très différents.La performance, la capacité et le niveau de disponibilité des machines devront être d’un autre niveau que ceux demandés aux bases métier. “Il existe clairement une menace. Mais jusqu’à 10 ou 15 To ?” si l’on ne stocke que des fichiers plats ?”, les technologies sont mûres, affirme Jacques Milman, architecte des systèmes décisionnels chez IBM France. Il faut cependant préférer les architectures massivement parallèles.”

Se donner les moyens de garantir la disponibilité

Il est important de pas porter son choix sur des constructeurs ne proposant que des machines à faibles performances sous prétexte que les quantités de données ne sont pas encore maximales. Sous peine de revoir toute la configuration matérielle quand ladite machine ne pourra plus évoluer.Pour connaître l’évolution du volume de données qu’il faudra traiter dans les prochaines années, l’utilisateur ne doit pas hésiter à se “benchmarker” avec d’autres entreprises de son secteur pour voir comment les systèmes d’information décisionnels de ses concurrents ont évolué.Le Giga Group considère en outre que les technologies de stockage en réseau comme le SAN (Storage Area Network) ou le NAS (Network Attached Storage) constituent de grands facilitateurs dans ce domaine. Placer toutes ses informations sur un seul et même support accroît le risque encouru par l’utilisateur en cas d’arrêt dudit support. D’où l’importance de prévoir des moyens de restauration et d’envisager des matériels de sauvegarde de type Raid. Ces derniers ?” toujours selon le Giga ?” doivent, si possible, être entreposés dans des lieux différents de la base de données elle-même, pour éviter de voir toute l’intelligence de l’entreprise disparaître dans un feu ou une inondation.Enfin, comme dans le cas de l’agilité, il est encore nécessaire de se poser la question de l’intérêt transversal des données pour ne pas avoir à faire évoluer trop souvent son entrepôt de données. “Un gros datawarehouse peut être important en termes de volume de données stockées. Mais ce qui est plus intéressant, c’est qu’il le soit en matière de capacité de traitement”, résume Jean-Louis Gross, vice-président de CSC France.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Renaud Edouard