Passer au contenu

“ Les processeurs n’évoluent plus ”

Ce scientifique de nVidia nous donne sa vision de l’évolution de l’informatique, de la 3D et du calcul sur circuit graphique.

l’Oi :Les ventes de PC portables sont aujourd’hui plus importantes que celles des PC de bureau. Ne serait-il pas plus logique de focaliser vos développements sur les circuits graphiques (GPU) pour ordinateurs portables ?BD : L’ensemble de notre gamme de GPU s’appuie sur la même architecture, depuis les modèles haut de gamme pour PC de bureau jusqu’aux circuits intégrés aux cartes mères via les GPU pour ordinateurs portables. Nous travaillons déjà beaucoup sur la gestion de l’énergie, notamment sur nos gammes pour PC portables. Après, tout est une question de performances par watt, et nous essayons de fournir le maximum de puissance en fonction d’un “ budget énergie ” donné. Dans un PC de bureau, nous pouvons, par exemple, donner un certain niveau de performances avec un GPU consommant 225 watts. Avec un portable, les contraintes seront différentes pour un GPU consommant 65, 40 ou 25 watts. Mais, au final, nous parvenons à fournir le même degré de performances par watt, quelle que soit la plate-forme.l’Oi : La course à la puissance des processeurs et des circuits graphiques est-elle toujours d’actualité ?BD : En ce moment, les performances des processeurs n’évoluent plus. Historiquement, elles augmentaient de 50 % par an dans les années 1980 et 1990. Mais vers 2000-2001, cette croissance s’est tassée pour des raisons liées à la parallélisation des instructions et à la profondeur des pipelines (notamment sur le Pentium 4). Or, sur la même période, les performances des circuits graphiques n’ont cessé de progresser. Si, d’ici cinq à dix ans, il ne faut pas attendre d’augmentation significative de la puissance des processeurs, nous estimons que, vers 2015, la puissance des GPU sera 20 fois supérieure à celle d’aujourd’hui, soit une capacité de calcul de 20 téraflops, avec une bande passante mémoire de plus de 1 téraoctet par seconde !l’Oi : Le calcul générique sur puces 3D, ou GPGPU, suscite de l’intérêt. Quelles applications pourraient lui permettre de s’imposer ?BD : De plus en plus de programmes sont modifiés chaque jour pour tirer parti des possibilités de calcul en parallèle et de la puissance des processeurs graphiques. En dehors des applications scientifiques, Photoshop va être adapté. D’une manière générale, les outils liés à la photo, pour l’indexation et la retouche, peuvent grandement bénéficier du “ GPU computing ”. Les logiciels de montage vidéo peuvent aussi tirer parti du GPGPU, pour appliquer tous les effets en temps réel et ainsi obtenir une prévisualisation rapide. Sur ces logiciels, les gains de performances sont importants : certaines tâches sont réalisées jusqu’à 100 fois plus rapidement.l’Oi : Pour le GPGPU, vous mettez en avant votre technologie Cuda. N’est-elle pas un peu limitative ?BD : Cuda, c’est une architecture d’exécution pour la parallélisation des tâches. Différentes méthodes de programmation existent pour la mettre en œuvre : OpenCL, C et Fortran avec les extensions Cuda, DirectX Compute. Quelle que soit la méthode utilisée par les éditeurs pour adapter leurs programmes au GPGPU, cela nous satisfait. De nombreux développeurs estiment que le langage C avec les extensions Cuda est le moyen le plus pratique et le plus efficace pour écrire des applications. Des dizaines de milliers de personnes élaborent des programmes avec Cuda, des centaines d’universités l’enseignent… De plus, je sais qu’il existe des projets pour faire fonctionner Cuda sur d’autres plates-formes (Ndlr : avec des GPU de concurrents de Nvidia).l’Oi : Pour le rendu et le réalisme en 3D, est-ce que le raytracing (lancer de rayons) va succéder à la rastérisation ?BD : Ce qui pourrait se produire, c’est l’apparition de solutions graphiques hybrides, où le raytracing serait employé dans certains cas, comme le rendu réaliste de surfaces transparentes ou réfléchissantes. Mais, à mon avis, cela sera une méthode onéreuse, alors que la rastérisation (Ndlr : rendu d’une scène 3D décomposée en polygones, avec textures, ombres et réflexions) peut suffire. À terme, grâce à l’augmentation de la puissance de calcul des GPU, les solutions hybrides avec raytracing en temps réel pourraient se généraliser.l’Oi : Que pensez-vous de Larrabee, le projet de puce d’Intel à la fois processeur et GPU ? Le considérez-vous comme une menace pour votre activité ?BD : Larrabee n’existe pas pour l’instant ! Pour nous, c’est du slideware : en dehors des présentations d’Intel, on n’en sait pas grand-chose. Nous avons vu des images de la puce, sans avoir accès au composant. Mais, à partir de ces présentations, nous pouvons déjà dire que nous conservons notre avantage. Ce processeur intégrera des unités de traitement spécifiques pour les textures et le filtrage anisotropique, mais pas pour la rastérisation et la composition des images. Du coup, pour réaliser ces tâches, leur processeur consommera plus que nos puces. Pour les applications de GPGPU, nous pensons que le jeu d’instructions x86 risque d’être un facteur bloquant : à l’heure actuelle, le code des programmes x86 n’est pas suffisamment parallélisé pour tirer partie des multiples cœurs de Larrabee. De plus, il n’utilisera pas les mêmes extensions SSE que les autres processeurs : il y aura une grosse déperdition de performances pour convertir les instructions. Intel est une entreprise très compétente, mais tant que leurs produits ne sont pas disponibles, difficile de vraiment se prononcer.l’Oi : Avez-vous des projets pour élaborer un microprocesseur ?BD : Nvidia possède un niveau élevé d’expertise qui nous permettrait de faire tout ce que nous voudrions si nous souhaitions nous lancer dans cette voie. Pour ce qui est de la mobilité, nous avons mis au point la plate-forme Tegra, pour laquelle nous avons obtenu une licence processeur ARM. Mais nous n’avons pas de projet concernant un processeur pour ordinateur de bureau ou portable.l’Oi : Comment imaginez-vous l’informatique de la prochaine décennie ?BD : D’ici à 2015, j’imagine que de nombreuses applications seront déportées et fonctionneront dans les gros centres de données. Elles seront accessibles par des appareils mobiles. Mais il y aura toujours une demande pour des ordinateurs fixes, car les utilisateurs ne voudront pas transférer toutes leurs données privées dans ces centres. Les calculs graphiques seront scindés, une partie au niveau de l’appareil de l’utilisateur, l’autre du côté des serveurs du centre de données. Côté interfaces, nous allons vers plus de 3D et vers des résolutions plus élevées, des images à la dynamique plus importante… La qualité s’améliorera d’une manière générale.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Christophe Gauthier