Passer au contenu

Réussir à partager la puissance

Unanimes sur les besoins en puissance de calcul, les scientifiques s’inquiètent du retard pris dans l’évolution des techniques de stockage et de transport.

À chaque fois, la question provoque un léger sourire. “Nous commençons seulement à entrevoir les exigences des systèmes d’intelligence artificielle sur lesquels nous travaillons “, indique Gaetano Bonnicello, directeur du laboratoire de recherche sur les nouvelles technologies informatiques de l’Université de Seattle (État de Washington). “ Par exemple, la multiplication des capteurs et autres détecteurs connectés à internet posera rapidement le problème de trier et exploiter toutes ces données.

Une ferme de 1000 serveurs dédiés uniquement aux calculs

Des tâches de corrélation des données qui ne sont réalisables aujourd’hui qu’en multipliant les machines, qui se partagent alors la charge de travail. “À Berkeley, nous avons mis en place une ferme d’environ 1 000 serveurs, uniquement dédiés aux calculs, indique David Culler, directeur de recherche sur les systèmes en réseau à l’Université de Berkeley. Nos chercheurs pourront détecter les neutrinos ou manipuler des données relatives à l’ADN ou modéliser des problèmes de physique. Aucun domaine de la science n’échappe aujourd’hui à ce phénomène : les sciences sont devenues des e-Sciences.“Si, pour l’heure, les différentes techniques de calcul distribué ou de mutualisation des ressources semblent constituer des alternatives séduisantes, les scientifiques les considèrent surtout comme des technologies complémentaires à la montée en fréquence des processeurs. “ Il n’y a pas à choisir entre augmenter la puissance de calcul d’une seule machine et partager le travail entre plusieurs : nous aurons besoin des deux“, affirme Gaetano Bonnicello. Méthodiques, les scientifiques ont examiné tous les aspects du problème, y compris les fameuses limites physiques dans la fabrication des processeurs, censées exiger, d’ici 10 à 15 ans, l’abandon du silicium pour un autre matériau.

Les ressources hors labos

Cela fait presque 40 ans que l’on s’inquiète de cela, poursuit David Culler. Mais regardez l’histoire : les processeurs ont évolué mais il n’y a pas qu’eux. Les méthodes de calcul ont elles aussi considérablement progressé. Pour moi, les seules limites réelles sont celles des sciences informatiques elles-mêmes. “Retour à la case départ : la montée en fréquence ?”et les scientifiques sont, sur ce point, unanimes?” n’est qu’un des aspects d’un problème à envisager à un niveau plus élevé. Car le manque de puissance de calcul n’est peut-être plus le principal obstacle à surmonter : “ C’est vrai qu’il nous a fallu attendre la fin des années 1990 et des processeurs à 1 GHz pour mettre au point un module de synthèse de la parole qui ne soit plus une voix de robot, se souvient Kevin Compton, spécialiste de la synthèse de la parole chez AT & T Labs. Maintenant, le problème auquel nous sommes confrontés est différent : si l’on peut réaliser en laboratoire une application de traduction simultanée par voix de synthèse d’une conversation téléphonique entre un Français et un Japonais, par exemple, ce type d’application ne peut pas être déployé, faute de ressources suffisantes.

Loi de Gilder après celle de Moore

Mémoire, stockage de masse, réseau : la loi de Moore, et son exigence de doubler la puissance des processeurs tous les 18 mois, est en passe d’être supplantée par une autre, plus pressante encore. Cette loi, dite loi de Gilder, du nom du spécialiste américain du stockage Georges Gilder qui l’a énoncée, stipule que les capacités de stockage doivent doubler tous les 9 mois. Un autre principe, qui concerne le réseau celle-ci, fixe même à 9 mois le délai qu’ont les industriels pour, cette fois, multiplier par deux tout simplement la capacité des autoroutes de l’information.”C’est un peu le problème de l’?”uf et de la poule, tranche Marc Tremblay, spécialiste des architectures de systèmes de Sun. Les applications gourmandes en puissance de calcul le sont encore plus encore en capacité de transport et de stockage. ” Et si ces dernières évoluent aujourd’hui deux fois plus vite que la montée en fréquence des processeurs, cest avant tout pour combler leur inquiétant retard.* à San Francisco

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Paul Philipon-Dollet*