Passer au contenu

Que nous réserve le PC de demain ?

Nous avons délaissé notre boule de cristal pour faire le point sur tout ce qui va arriver dans vos machines d’ici à six mois ou un an. Si aucune grande révolution n’est attendue, des évolutions importantes sont au programme.
Explications.

A regarder de près, il se pourrait que votre ordinateur dans six mois ou un an, soit… un portable. Seule réelle inconnue : sa couleur !Cela dit, si vous êtes joueur ?” tendance Half Life 2 plutôt que Adibou, vous avez encore des raisons de vous encombrer d’une tour massive et d’un écran version grand large
(24 pouces). Côté quincaillerie, cependant, les composants des desktops et autres portables sont et seront presque tous les mêmes.

Quatre c?”urs à l’unisson

Les Core 2 Duo d’Intel et les Athlon X2 d’AMD illustrent la mutation technologique des PC grand public du moment :
le processeur est dorénavant à double c?”ur. 2007 sera l’année du quadric?”ur, du vrai. Et si Intel vient de lancer avec tambour
et trompette un quadric?”ur, soyons honnêtes, il ne s’agit là que d’un effet d’annonce. Car l’Intel Core 2 Extreme n’est pas un processeur avec quatre c?”urs, mais deux processeurs avec deux noyaux associés. Il y a donc gain de puissance,
évidemment, mais pas autant qu’avec un vrai ‘ quad core ‘. Ces processeurs développeront une puissance de feu jusque-là réservée aux serveurs.Attention toutefois : les multic?”urs sont mis en avant comme la solution ultime à la lenteur des machines. C’est en partie vrai. Ils garantissent en effet une plus grande souplesse d’utilisation quand vous faites tourner Word,
un client de messagerie électronique, un lecteur audio… En revanche, pour qu’un programme tire pleinement parti de toute cette puissance, c’est-à-dire pour qu’il utilise tous ces c?”urs, il doit avoir été développé dans cette optique. Une
exigence difficile à satisfaire, notamment dans le domaine des jeux vidéo. Le multic?”ur, c’est mieux, mais pas miraculeux.

Repousser les limites visuelles

Les technologies SLI de nVidia ou CrossFire d’ATI destinées à réunir la puissance de deux cartes vidéo représentent, pour l’instant, la solution la plus cohérente. Toutefois, ces deux acteurs ont sous le coude de nouvelles
technologies : le
projet Fusion chez ATI/AMD et
l’architecture dite unifiée chez nVidia avec un nouveau composant (GeForce 8800). L’objectif de l’une comme de l’autre est de décharger le processeur principal des calculs répétitifs
en les attribuant aux unités de calcul de la carte graphique. Ces technologies associées à Windows Vista et DirectX 10 vont améliorer la qualité du rendu des jeux, des vidéos (haute-définition) ou des éléments visuels courants.

Encore plus de mémoire vive

De nouveaux types de mémoire sont dans les cartons depuis suffisamment longtemps pour y rester encore quelques mois. A l’intérieur des PC à venir, on va continuer à trouver le même type de mémoire : de la DDR2 SDRam. La différence
devrait surtout se faire au niveau de la quantité.Les nouveaux PC auront la lourde tâche de faire fonctionner Windows Vista de manière confortable. Or, si un gigaoctet est un minimum, il faudra au moins deux gigaoctets pour exploiter confortablement le nouveau système d’exploitation de
Microsoft. Et monter jusqu’à quatre ne sera pas déraisonnable…

Plus de stockage, moins d’électricité

Même avec une bonne quantité de mémoire cache pour accélérer le transfert de données, des plateaux tournant vite (7 200 tours/min, par exemple) et une bonne quantité de stockage, le disque est le maillon faible. Deux
nouveautés technologiques améliorent la situation. La première est une nouvelle technologie, appelée
stockage perpendiculaire. Elle accroît de manière significative la capacité de stockage. Et prend tout son intérêt dans les portables.La deuxième est la technologie des
disques hybrides. Aux habituels disques magnétiques sur lesquels sont enregistrées les données est ajoutée de la mémoire flash, plus rapide en lecture/écriture, qui sert de
zone de stockage temporaire. La quantité varie entre 128 et 256 Mo selon les modèles et les fabricants. Microsoft a intégré un logiciel (Windows ReadyDrive) à son nouvel OS, pour gérer ce type de périphériques. L’avantage des disques
hybrides : comme ils consomment moins d’électricité que leurs prédécesseurs, ils devraient améliorer l’autonomie des portables.

Le complexe de la HD

2007 va être l’année de la HD. Mais que faut-il pour en profiter ? Tout d’abord, il faut un écran capable d’afficher les hautes résolutions d’image ?” HD Ready (720p) ou Full HD (1080p) ?” et qui plus est
compatibles avec le système de protection du contenu HD (HDCP). C’est un des éléments les plus coûteux du passage à la HD. Ensuite, côté galettes, il faut faire le choix entre les deux normes ennemies : Blu-ray ou HD-DVD ? Difficile à
l’heure actuelle de savoir quelle sera l’issue de cette querelle technologique. Mais l’histoire nous apprend qu’il n’y a que très rarement de la place pour deux.Si pour l’instant le prix des lecteurs HD est excessif ?” rappelons que le premier lecteur Blu-ray pour PC n’a été commercialisé qu’à la rentrée et que son homologue HD-DVD n’est apparu qu’en mai dernier ?”, l’un
comme l’autre se généralisent sur les modèles haut de gamme. Les premiers portables Full HD disponibles coûtent entre 2 500 et 3 000 euros. En attendant la baisse de prix, le seul problème est donc de savoir qui gagnera pour investir
dans la bonne technologie. A moins que d’ici là, des lecteurs hybrides (compatibles avec les disques HD-DVD et Blu-ray) apparaissent.

Couper les fils

Un rapide passage derrière un PC fait prendre conscience de la marge de progression possible pour en finir avec cette nuée de fils. Un vrai sac de n?”uds ? Pas certain, car l’arrivée du Wi-Fi a déjà fait disparaitre le câble
réseau. Attendue dans le courant de l’année 2007, la version 802.11n du Wi-Fi (qui intègre la technologie MiMo), va donner encore plus d’intérêt à cette connexion sans fil. Débit plus important, meilleure portée et meilleure sécurité devraient être
au rendez-vous des prochains produits répondant à cette nouvelle ‘ norme ‘. Si le Wi-Fi a été largement adopté par les PC, étonnons-nous qu’une technologie mature comme le Bluetooth ne soit pas plus plébiscitée. On la
trouve intégrée à quelques modèles, haut de gamme généralement.Ne serait-il pas intéressant de l’introduire afin de remplacer des périphériques infrarouges ou les souris RF ? De même, son évolution, le Bluetooth A2DP, utilisé pour le transfert de données audio, aurait de quoi séduire les
utilisateurs d’enceintes PC. Enfin, l’arrivée du Wireless USB, autrement appelé UWB pour Ultra Wide Band, devrait couper d’autres fils. Intel a mis à disposition les informations nécessaires à la conception de périphériques USB
sans fil à la fin du mois de septembre dernier. Les premiers appareils ne devraient donc plus trop tarder. Espérons-le, mais ici aussi, seul l’avenir nous le dira.

La connectique

Il est étonnant de voir à l’arrière des PC des ports d’entrée/sorties d’un autre temps, comme les ports Parallèle ou Série, voire PS/2, qui survivent malgré l’avènement de l’USB. Des branchements de moins en moins utilisés, alors même
qu’il serait bon de faire de la place à d’autres connectiques. Comme le FireWire autrement appelé iLink ou Lynx, selon les fabricants. Les normes FireWire 400 (IEEE 1394a) et FireWire 800 (1394b) sont rares sur les PC. C’est d’autant plus
dommage que, comparé à l’USB, le FireWire assure des débits stables et compte moins sur la puissance du processeur pour transférer les données.Pour mémoire, le FireWire 400 est en théorie un peu moins rapide (400 Mbit/s) que l’USB 2.0 (480 Mbits/s), ce qui n’est quasiment jamais le cas en réalité. Le FireWire 800 offre, quant à lui, comme son nom l’indique, un
débit théorique de 800 Mbits/s. Bien plus que l’USB 2.0… Dès lors, puisqu’il est si performant, pourquoi n’est-il pas plus présent dans les PC ? Cette absence s’explique en grande partie par le mauvais support de cette norme
par Windows XP. Heureusement, Vista devrait résoudre ce problème. Enfin, on peut imaginer que les fabricants de PC adopteront de plus en plus des puces réseau offrant des débits en gigabits et non plus en mégabits, ce qui garantira un meilleur
confort d’utilisation lors de transferts sur un réseau local.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Pierre Fontaine