Passer au contenu

Optimiser l’infrastructure existante

Les solutions permettant de répartir les calculs sur des postes dormants sont fiables et faciles à déployer. Mais elles ne couvrent pas tous les besoins.

Avec des budgets informatiques de plus en plus serrés, les entreprises cherchent à optimiser leurs cycles CPU en répartissant leurs calculs sur des postes bureautiques dormants. Particulièrement bien adaptée à cette approche, la technique du High Throughput Computing (HTC) consiste à exécuter la même application avec un grand nombre de paramètres différents. Principal avantage : le code de l’application distribuée sur des centaines ou des milliers de postes clients reste le même, seuls les paramètres changent. La technique du High Performance Computing (HPC), quant à elle, consiste à exécuter le plus vite possible une application. Souvent synonyme de parallélisme, elle est donc peu adaptée aux infrastructures techniques standards des entreprises.

Une architecture asynchrone

Les expériences Seti@home et Decrypthon ont contribué à vulgariser un modèle de HTC proche du concept de grille de calcul. “100, 1 000 ou 10 000 Pentium 4 connectés à Internet offrent une puissance de calcul phénoménale lorsque l’algorithme que l’on cherche à distribuer se prête à ce genre de traitement”, résume François Delfaud, fondateur d’ActaGrid, un intégrateur spécialisé dans les projets Grid fondés sur HTC. L’approche des projets en production consiste à distribuer massivement des calculs unitaires simples sur des centaines, voire des milliers de postes clients sous-utilisés. L’association Distributed.net a ainsi récemment cassé une clé de cryptage 64 bits en répartissant ses calculs sur 331 252 postes d’internautes dont la puissance cumulée à un instant t équivalait à celle de 50 000 Athlon à 2 GHz. Les deux points sensibles de ces projets sont la portabilité de l’exécutable destiné aux postes clients et la capacité du gestionnaire de tâches à en coordonner des centaines à la seconde. Celui-ci organise en effet l’envoi des informations à traiter vers les clients. La disponibilité du réseau et ses temps de réponse ne sont pas primordiaux, dans la mesure où cette architecture est fondamentalement asynchrone. L’intégrité des données et la tolérance aux pannes sont obtenues grâce à une duplication des calculs : les mêmes données sont envoyées à trois ou quatre clients. Si l’un d’eux n’est pas disponible ou tombe en panne, il en reste toujours d’autres pour effectuer les traitements. Lorsque les clients renvoient leurs résultats, une analyse sur la concordance des données permet de s’assurer de leur intégrité. Il ne reste plus qu’à les agréger pour obtenir le résultat du calcul ou de la simulation.Facile à mettre en ?”uvre, le calcul distribué, qui ne couvre cependant pas tous les besoins des entreprises, a déjà séduit BASF, JPMorgan, Peugeot ou EADS. Il faut dire que nombre d’éditeurs fournissent déjà des solutions fiables à un prix raisonnable. “Des industries pharmaceutiques, énergétiques et manufacturières, aux banques et institutions financières, de nombreuses entreprises utilisent des algorithmes adaptés à cette approche”, note Franck Cappello, chargé de recherche au CNRS.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Frédéric Bordage et Jérôme Saiz