Passer au contenu

Autonomie et puissance : les combats d’AMD

Autonomie des portables, puces graphiques dernier cri, concurrence d’Intel et de nVidia : deux représentants d’AMD nous parlent des chantiers en cours, côté marketing et côté technique.

l’Oi : Vous militez depuis quelque temps pour une meilleure information sur l’autonomie des PC portables. En quoi cela consiste-t-il ?LS : À l’origine de cette idée, nous avons constaté que certains revendeurs aux États-Unis utilisaient comme argument de vente des chiffres de mesure d’autonomie réalisés avec le test MobileMark’07. C’est un test reconnu, certes, mais qui n’est pas du tout représentatif des usages courants : la luminosité de l’écran est diminuée à 20 % – ce qui rend l’affichage illisible –, la charge processeur ne dépasse pas 7 %, le Wi-Fi est désactivé… Et parallèlement, n’importe quel téléphone mobile du marché présente au moins deux mesures d’autonomie, en veille et en communication. Nous nous sommes dit qu’il était possible de réaliser la même chose pour les PC portables, avec d’un côté le résultat de MobileMark’07, de l’autre une mesure en usage intensif. L’iPhone est l’exemple à suivre : Apple propose cinq chiffres d’autonomie. Mais nous préférons y aller pas à pas car cela représente un changement pour l’industrie. Les portables à processeur AMD ont la réputation d’offrir une autonomie plus faible que ceux à puce Intel : c’est peut-être vrai sous MobileMark’07, mais selon nos mesures en charge avec divers scénarios, nous sommes à égalité. l’Oi : Pourquoi ne pas lancer aussi une telle initiative sur la consommation électrique ou le dégagement de chaleur des ordinateurs ?LS : Le problème se pose surtout sur les ordinateurs portables à processeur 3D dédié. Vous disposez de la puissance de calcul, de la puissance graphique… mais au final, cela représente des watts en plus. Nous ne cessons de travailler à améliorer les choses, dès la conception des puces, mais cela nécessite aussi une collaboration de tous les instants avec les constructeurs afin de trouver les manières les plus efficaces de dissiper la chaleur. Cela devrait évoluer à l’horizon 2011 avec notre puce Fusion, qui associera processeur et GPU sur un seul morceau de silicium et qui devrait de cette façon consommer bien moins que des composants séparés. l’Oi : Avec l’arrivée de Windows 7, vous vous placez en première ligne pour les cartes graphiques compatibles DirectX 11. Quels avantages y voyez-vous ?RH : DirectX 11 s’appuie sur cinq éléments clés. D’une part, un accès optimisé aux unités de traitement pour le calcul parallèle sur processeur graphique (Ndlr, le GPGPU). Deux, un nouvel ensemble d’instructions, qui apporte des améliorations au niveau de l’efficacité des traitements. Trois, un rendu HDR (NDLR, High Dynamic Range, pour préserver les détails dans les scènes très contrastées des jeux) moins gourmand, ne nécessitant que 25 % de la mémoire requise auparavant avec les versions précédentes de DirectX tout en calculant plus rapidement. Quatre, une meilleure gestion du multithreading : les développeurs de jeux pourront mieux tirer parti des processeurs multicœur, en faisant par exemple tourner l’IA sur un cœur, la physique sur un deuxième, le jeu sur un troisième et le rendu sur un quatrième. Dernier élément clé, la tessellation, qui permet d’augmenter les détails : le GPU prend une ou deux formes géométriques dans une forme et les découpe en des centaines, voire des milliers d’autres polygones. La transition sera rapide : DirectX 11 sera aussi disponible sous Vista et les cartes 3D compatibles DirectX 9 et 10 pourront aussi le gérer. Et l’adaptation des jeux ne demande pas un travail colossal : par exemple, Codemasters a décidé de reculer de deux mois la sortie de son jeu Dirt 2 pour le rendre compatible DirectX 11. C’est vraiment rapide. l’Oi : Que vous inspire Larrabee, la puce hybride CPU-GPU d’Intel ?RH : Prendre un cœur de CPU, le “ désosser ”, puis le multiplier pour le faire ressembler, dans son fonctionnement, à un GPU : nous en avons discuté mais nous en avons conclu que ce n’est pas possible. D’une part le jeu d’instructions x86 ne présente pas un grand intérêt dans le domaine graphique, d’autre part il est nécessaire d’implanter des fonctions clés pour le calcul 3D, fonctions qui sont absentes de ce jeu d’instructions. Actuellement, nous sommes sûrs que nous allons battre Intel à plate couture au niveau des performances. Un autre chantier gigantesque les attend, celui du développement des pilotes. Intel est une société qui produit du matériel ; ce ne sont pas des spécialistes du logiciel, leurs pilotes graphiques en sont la preuve. Bien entendu, ils sauront s’entourer des bonnes personnes pour réaliser l’implantation de DirectX dans Larrabee, mais ils ont probablement sous-estimé le travail requis sur les pilotes. Chez ATI-AMD, même si nous sommes perçus comme étant un fabricant, nous passons plus de temps sur la mise au point du logiciel que du matériel. l’Oi : Pensez-vous offrir une réponse à la plate-forme mobile Tegra de Nvidia ?LS : Même si nous prévoyons de commercialiser des processeurs à très faible consommation d’énergie l’année prochaine, et même si nous disposons aussi d’une activité autour de l’électronique embarquée, nous préférons nous focaliser sur le secteur “ traditionnel ” du PC. Nous disposons déjà de nombreux vecteurs de croissance, nous n’avons pas besoin d’occuper la totalité du marché. Après, nos partenaires sont libres d’intégrer nos composants comme bon leur semble dans certains produits : au dernier salon Computex, nous avons vu plusieurs terminaux mobiles originaux employant un processeur AMD, et même un téléphone ! l’Oi : Selon Nvidia, en matière de GPGPU, vous n’avez pas fait un bon choix en adoptant le langage de développement Brook, peu utilisé. Que leur répondez-vous ?RH : Tout développeur doit penser au futur, à la portabilité de son code sur d’autres environnements. Cuda n’est pas portable. Si Nvidia fermait ses portes dans cinq ans, un développeur ayant choisi Cuda devrait tout reprendre à zéro ! En plus, Cuda peut être traduit dans le langage ouvert OpenCL. Nous ne demandons pas aux développeurs de n’utiliser que Brook ; pour eux, le plus naturel serait d’adopter OpenCL, mais s’ils ont une préférence pour Brook, DirectX ou OpenGL, c’est leur choix et c’est tant mieux ! Mais s’attacher à des standards fermés, c’est de la folie, surtout s’il existe un équivalent ouvert avec lequel vous pouvez être assuré que vos développements ne seront pas rendus obsolètes d’ici quelques années. Au final, c’est une question de philosophie…

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Christophe Gauthier