Passer au contenu

Les supercalculateurs sont voués à un déclin inéluctable

Les ventes des supercalculateurs continueront à stagner à un niveau assez bas. Ce déclin s’accompagne d’un retour à des technologies plus classiques. La majorité des besoins est désormais couverte par les serveurs Unix traditionnels.

Longtemps incarnés par la mythique marque Cray Research, les supercalculateurs sont sur le déclin. Ainsi, selon IDC, les ventes mondiales de ces machines – d’une valeur de plus de 3 millions de dollars – continueront de stagner à 500 millions de dollars par an. Un regard technologique confirme la fin de l’âge d’or de ces titans. Autrefois, ils brillaient par l’originalité de leurs solutions techniques. La première d’entre elles fut incarnée par les processeurs vectoriels (en technologie bipolaire, voire arséniure de gallium) exécutant simultanément plusieurs additions et multiplications. Ils sont aujourd’hui en voie de disparition. “Le temps qu’une application soit vectorisée, la génération suivante de processeurs traditionnels affiche les mêmes performances avec du code standard”, explique Jean Constantini, responsable produits chez Hitachi. De fait, SGI (au travers de sa division Cray) ou les Japonais NEC, Fujitsu et Hitachi ne conservent le vectoriel que dans le souci de satisfaire la base installée.
Cette technologie aurait dû être relayée par les architectures massivement parallèles, apparues au début des années 90. Elles étaient constituées de centaines, voire de milliers de n?”uds (ensembles processeur/ mémoire) interconnectés via un maillage complexe et communiquant entre eux par messages. Hormis le “crash test”, les prévisions météo ou la simulation nucléaire, rares ont été les applications aptes à bien les exploiter. Du coup, Cray, Hitachi ou même IBM sont revenus à un parallélisme modéré, fondé sur des technologies plus classiques. Il s’agit désormais d’interconnecter un faible nombre de n?”uds, chacun adoptant un classique mode multiprocesseur symétrique (mémoire partagée par plusieurs processeurs) ou Numa (mémoire virtuellement partagée). “Avec les SP2, le nombre total de processeurs stagne, mais ceux-ci sont regroupés au sein de n?”uds SMP, qui compteront demain seize processeurs, contre deux aujourd’hui”, confirme François Thomas, responsable du benchmarking scientifique chez IBM.
Serveurs Unix et PC satisfont les besoins
Le déclin des ventes ne signifie pas celui des besoins. En fait, le marché se déplace vers les serveurs Risc polyvalents fournis par SGI, Sun, HP, Digital/Compaq ou IBM. Ainsi, le calcul numérique intensif aura drainé en 1999, sur le segment des systèmes Unix à moins de 3 millions de dollars, un marché de 2,1 milliards de dollars qui atteindra 3 milliards en 2001. “La frontière entre supercalculateurs et serveurs classiques est parfois floue, car notre gamme Origin culmine à 256 processeurs Mips R 12000, soit une puissance de crête de 150 Gflops”, nuance Olivier Multon, responsable du marketing serveurs et supercalculateurs chez SGI. Signe des temps, ce constructeur se désengage partiellement de Cray, racheté en 1996. La même année, HP avait acquis Convex. Depuis, les technologies de cet ancien concurrent de Cray ont été distillées dans l’offre de HP. Dans le domaine du calcul numérique intensif, cette offre est désormais constituée par la gamme V-Class (serveurs Unix haut de gamme), dont 80% des ventes concernent en fait les applications de gestion.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Thierry Lévy-Abégnoli